Oui (et non, ce n'est pas la vitesse d' Internet , et ce n'est pas la vitesse en soi).
La vitesse
La vitesse est une formulation très imprécise qui mêle deux choses très indépendantes mais qui interagissent l'une avec l'autre: la latence et la bande passante.
En outre, la vitesse que vous observez n'est pas la vitesse d' Internet . C'est un mélange très complexe de nombreuses choses qui se passent de votre côté (votre ordinateur), de l'autre côté (serveur) et de plusieurs points intermédiaires. Ce qui peut être totalement différent avec le prochain serveur auquel vous accédez, même si celui-ci est aussi éloigné (ou plus éloigné).
Bande passante
La bande passante est la quantité de données que vous pouvez, théoriquement, déployer sur le fil par unité de temps. Il y a généralement des limites strictes et souples pour cela. La limite stricte serait ce que la ligne est capable de prendre, et puis il y a ce que vous payez et ce que le fournisseur vous permettra (généralement moins!). Souvent, les transferts ne sont pas uniformes, ils démarrent plus rapidement puis s’étouffent très vite.
Par exemple, j’ai une liaison montante à 96 Mbit / s avec une capacité de ligne physique de 112 Mbit / s. En effet, pour une stabilité accrue, la bande passante utilisée est inférieure à ce qui serait réellement possible. Cependant, je ne paye que 50 Mbit / s (ce qui est bien suffisant pour mes besoins, et 10 € par mois de moins), malgré le fait que j'obtienne 96 Mbit / s. Attends ... comment ça marche? Pourquoi quelqu'un paierait-il plus d'argent alors? Eh bien, je transmets tout à 96 Mbits / s, mais le fournisseur me bloquera secrètement après un très bref délai (moins de 0,1 seconde) et autorisera l'envoi et la réception de davantage de données une fois que le temps imparti est écoulé. le quota que j'ai payé. Donc, en moyenne, j'ai mes 50 Mbit / s. Des choses très similaires se produisent à plusieurs endroits sur Internet où votre trafic passera aussi (sans que vous le sachiez). Le trafic est "en forme"
La bande passante sur Internet est, dans la plupart des cas, si énorme que, sauf lors d'attaques DDoS couvrant plusieurs pays, ce n'est en aucun cas un facteur limitant. En théorie, dans la plupart des régions du monde.
Il existe toutefois des goulots d'étranglement: l'un est à votre extrémité, l'autre suivant est celui du serveur, et il existe une très réelle chance que, si vous interagissez avec un serveur situé dans un lieu géographique différent, en particulier dans un pays du tiers monde, cette bande passante totale sera nettement pire que l'un des deux. Certains pays d’Asie du Sud-Est ont des relations internationalesliaisons montantes qui ne sont pas beaucoup plus élevées que ce qu’une poignée d’utilisateurs à domicile ont dans d’autres pays (ou même dans le même pays). Je ne sais pas si c'est toujours le cas (la situation change très vite dans le monde), mais par exemple en Thaïlande, l'accès à un serveur du même pays était 4 fois plus rapide que l'accès à un serveur d'un autre pays, par exemple. juste cette raison. Il en irait de même si vous tentiez d'accéder à un serveur de leur pays.
Même si la bande passante sur votre site peut être élevée, c'est la connexion la plus lente de la chaîne qui limite le nombre de données que vous pouvez transmettre (comme dans une conduite d'eau). Une distance plus longue signifie qu'il y a généralement plus de possibilités de rencontrer un lien lent (ou encombré).
Latence
La latence est le temps qu’il faut à un signal pour arriver à votre position (ou à une position particulière) à partir d’un certain point.
Premièrement, il y a la vitesse de la lumière, qui est (non) constante et, en tant que limite physique difficile, ne peut pas être contournée. Pourquoi dis-je "(pas) constante"?Eh bien, parce que la réalité est encore pire que la théorie. La vitesse de la lumière est vraiment une limite supérieure, mesurée dans le vide. Dans un câble de cuivre ou plus encore dans un câble de fibre optique, la vitesse mesurable de la lumière est environ 30% plus lente que dans un aspirateur, plus la distance réelle est plus longue. Ce n'est pas seulement parce que le câble n'est pas parfaitement droit, mais aussi parce que la lumière se propage le long de la fibre en zig-zag, rebondissant sur les murs (réflexion interne totale). Il est difficile (cela signifie: impossible) d’accélérer considérablement la vitesse de la lumière. Ce n’est pas que vous ne puissiez pas faire cela en utilisant un autre médium, mais un médium avec une vitesse de la lumière plus élevée signifie de changer l’indice de réfraction, ce qui vous permet de réduire, voire de perdre, la réflexion interne totale. Ce qui signifie que si le signal passe en ligne parfaitement droite,
Ainsi, en résumé, il y a un retard plus ou moins fixe qui est inévitable et, bien que cela ne soit pas perceptible dans les transmissions locales (LAN, ou quelques kilomètres), il devient très perceptible lorsque le signal traverse un demi-continent. En plus de cette limite physique stricte, il existe des retards introduits par les routeurs intermédiaires, et éventuellement votre liaison montante locale (le fameux "dernier kilomètre").
Par exemple, sur une connexion Internet domestique type basée sur ATM, vous disposez d’un délai d’environ 4 ms uniquement lorsque vos datagrammes sont encapsulés inutilement dans PPP et tronqués dans des trames ATM de 53 octets, envoyés au DSLAM, routés dans réseau ATM du fournisseur et être réassemblé avant d'entrer à nouveau dans un réseau IP. La raison pour laquelle cela est fait est historique. Il était une fois, ATM semblait être un bon plan pour permettre des appels téléphoniques de haute qualité et à faible temps de latence sur de longues distances. Il était une fois, dans les années 1980, mais hélas, les fournisseurs de services de télécommunication évoluent lentement.
Même pour de nombreuses installations qui portent le nom de "fibre", le fil de cuivre est en réalité utilisé sur les derniers dizaines de mètres, mais la fibre se termine rarement dans la rue (bien que la vraie fibre existe au sous-sol).
Un routeur Internet typique ajoutera quelque chose dans la plage de 0,05 à 0,2 millisecondes à votre retard, mais en fonction de son occupation (n'importe lequel peut-être que ce n'est pas top), il pourrait très bien s'agir d'une pleine milliseconde. Ce n'est pas beaucoup, mais considérez qu'avoir 6-8 routeurs entre vous et le serveur de destination n'est pas du tout inhabituel, et vous pouvez très bien en avoir 12-15 sur une plus longue distance! Vous pouvez essayer de courir tracert some.server.name
pour vous voir.
Une ligne qui a été coupée et exploitée par la NSA ou la SVR (ainsi, chaque ligne principale allant de / vers le continent asiatique, ou traversant la mer Rouge, la mer Indienne ou l'océan Atlantique) aura au moins deux millisecondes environ. de latence ajoutée pour le matériel d'espionnage qu'ils font, peut-être plus. Certaines nations sont connues (ou du moins fortement soupçonnées) non seulement d’observer le contenu et de bloquer certaines plages de propriété intellectuelle, mais également de filtrer / bloquer activement le contenu politiquement / idéologiquement inapproprié. Cela peut introduire des délais beaucoup plus longs.
Ainsi, même pour les emplacements "à proximité", vous pouvez vous attendre à 15 à 25 ms de retard, mais pour quelque chose dans un autre pays, vous devez vous attendre à environ 100 ms, sur un autre continent de 150 à 250 ms, si vous êtes malchanceux 400 à 500 Mme.
Malgré tout, il semblerait que cela ne fasse pas une grande différence, car il ne s’agit que d’un retard initial unique, que vous remarquez à peine. Droite?
Malheureusement, ce n'est pas tout à fait vrai. La plupart des protocoles qui transmettent des quantités importantes de données, tels que TCP, utilisent une forme de limitation de la bande passante basée sur l’accusé de réception. La quantité de données que vous pouvez transmettre sur le réseau dépend du temps nécessaire pour effectuer un aller-retour complet (aller-retour). encore). Cela n’est pas précis à 100%, car TCP tente d’optimiser le débit en utilisant l’un des algorithmes de fenêtrage assez complexes qui envoient plusieurs datagrammes avant d’attendre un accusé de réception.
Bien que cela puisse en quelque sorte atténuer l’effet, le principe de base demeure: ce que vous pouvez envoyer (ou recevoir) est finalement lié par le temps qu’il faut pour recevoir les accusés de réception. Certains autres protocoles avec des exigences en temps réel plus strictes et des exigences de fiabilité moins importantes téléphonie IP) utilise une stratégie différente avec différents problèmes (que je ne développerai pas).
Vous pouvez voir ce que la latence a un impact important si vous comparez une implémentation TCP médiocre (Microsoft Windows) à une meilleure (Linux). Bien qu'ils parlent tous deux le même protocole et fassent apparemment exactement la même chose, ils ne supportent pas aussi bien la compensation de latence.
Je possède un ordinateur de bureau (processeur 6700K, 64 Go de RAM, Windows) et un Synology DiskStation (puce ARMv8 basse consommation, 1 Go de RAM, Linux). L'ordinateur de bureau, connecté au même routeur, bien que beaucoup plus puissant, ne peut pas saturer complètement la ligne à 50 Mbit / s lors du téléchargement à partir de serveurs nationaux ou intra-UE (15-20 ms RTT), même avec plusieurs téléchargements simultanés en vol. Le doux DiskStation n'a aucun problème à saturer complètement la ligne en un seul téléchargement, obtenant un débit de 15 à 20% supérieur - un même câble, le même tout.
Sur mon réseau local (où la latence est bien inférieure à la milliseconde), il n'y a pas de différence notable entre les deux. C'est l'effet de la latence.
Vitesse ... encore
En résumé, oui, vous pouvez vous attendre à ce que la "vitesse" diminue à mesure que la distance augmente, principalement à cause de l'augmentation du temps de latence et, dans une certaine mesure, du fait que vous disposez peut-être de connexions à bande passante inférieure. Pour la plupart, l'effet devrait cependant être tolérable.