Les segments plus rapides d'un réseau signifient-ils un débit plus rapide ou une latence plus faible?


12

C'est une autre de ces questions hypothétiques. J'ai essayé de déterminer si un «segment» de réseau plus rapide entre l'hôte A et l'hôte B se traduirait par un débit plus rapide ou une latence plus faible entre eux. Permettez-moi de vous montrer les liens physiques dans le réseau entre l'ordinateur A et l'ordinateur B:

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

En bref, il existe une liaison 1G entre l'hôte A et le premier commutateur, qui contient un module SFP connecté à une courte fibre 10G / 40G / 100G (peu importe, juste plus rapide que 1G), qui se connecte à un autre module SFP dans un autre commutateur en cuivre 1G, qui est connecté via le cuivre 1G à l'hôte B.

Le trafic circule-t-il plus rapidement entre les deux hôtes en raison de l'exécution de la fibre au milieu? Ou le débit et la latence seraient-ils les mêmes si la section entre les deux commutateurs avait la même vitesse que le reste du réseau?

Il serait logique que la latence soit plus faible entre l'hôte A et l'hôte B, mais le taux d'entrée et de sortie des cartes réseau limiterait le débit, n'est-ce pas? Si tel est le cas, est-il judicieux de connecter des commutateurs et des routeurs «principaux» avec des liaisons plus rapides?

Réponses:


13

Ni vraiment. Le remplacement d'une liaison cuivre par une liaison fibre peut réduire un peu la latence (en supposant une liaison non encombrée), mais ce que vous obtenez vraiment lorsque vous remplacez une liaison «principale» par une liaison à bande passante plus élevée est moins d'encombrement possible. Dans votre exemple de scénario, cela n'a pas d'importance, car il n'y a qu'un seul périphérique à chaque extrémité. Dans un réseau en direct, cependant, le passage de liaisons centrales de 1 g à 10 g atténuera les problèmes de congestion au sein du cœur du réseau.

Maintenant, comme un effet secondaire, vous pouvez obtenir une latence plus faible et un meilleur flux de trafic, mais cela est uniquement dû à la réduction de la congestion, de sorte que les routeurs / commutateurs ne sont pas surchargés et à la baisse / mise en file d'attente du trafic.


L'augmentation de la vitesse des liaisons au cœur du réseau augmente donc la capacité et non la vitesse.
Libbux

4
Fondamentalement, oui. La «vitesse» dans le langage des réseaux ne dépend pas tant de sa rapidité que du nombre de bits par seconde que vous pouvez pousser sur un lien. La latence / RTT dépend généralement de la distance totale combinée au nombre de périphériques sur le chemin. Chaque saut / périphérique ajoute une petite quantité de latence. La "solidité" est essentiellement due à la physique et à la vitesse de la lumière.
Justin Seabrook-Rocha

Le point clé ici est que les bits voyagent tous à la même vitesse - c'est vraiment ce que je me demandais.
Libbux

2
Je mentionnerai également que tout cela sort par la fenêtre lorsque vous entrez dans le pays du commerce financier. Dans ce monde, RTT est roi. Même les microsecondes de matière RTT, ce qui les amène à faire toutes sortes de choses stupides, comme rapprocher le poste de travail de 100 pieds du serveur et raccourcir la chute de fibre.
Justin Seabrook-Rocha

7
Alors que le signal voyage au même taux, qu'il soit de 100M, 1GE ou 10GE, le délai de sérialisation (le temps nécessaire pour injecter une trame dans le fil) diminue à mesure que le taux augmente. Autrement dit, si vous envoyez une trame sur 100M, le délai de sérialisation pour 1538B est de 0,123 ms, sur 1GE, cette trame est déjà à 21 km en aval de la fibre.
ytti

6

La vitesse du flux de données ne fait aucune différence dans la physique du milieu. J'entends par là qu'il faut le même temps pour qu'un signal électrique circule d'un côté d'une conduite de cuivre de 100 mètres à l'autre, peu importe si ce signal fait partie d'une liaison à 10 Mbps ou à 1 Gbps.

Si vous passez du cuivre à la fibre, vous remarquerez peut-être une petite amélioration, mais cela ne devrait vraiment être qu'une différence marginale.

Maintenant, il y a d'autres facteurs qui peuvent entrer en jeu, par exemple l'équipement qui peut faire 10Gbps est généralement plus capable de traiter les trames / paquets que l'équipement qui est conçu pour faire 10Mbps, donc la latence ajoutée par l'équipement peut être réduite car bien. Mais cela dépend entièrement des capacités de l'équipement et non de la vitesse de la liaison.


5

Dans ce cas, le passage de 1G de bout en bout à un cœur 10G ne devrait rien changer de manière significative. Seule une augmentation marginale du débit proviendrait de la signalisation plus rapide (diminution du temps binaire) sur la liaison 10G +. Mais en l'absence de toute congestion (lire: autres hôtes), ils auraient dû pouvoir saturer le lien pour commencer.

Le temps nécessaire aux hôtes A et B pour signaler (entrer et sortir) qu'un paquet ne change pas. Le temps qu'il faut au paquet pour sauter d'un commutateur à l'autre est, en théorie, proportionnellement plus rapide. Cependant, à ces vitesses, la différence n'est pas perceptible pour un humain. (~ 10 μs pour un paquet de 1500 mtu)


Est-ce que, disons, une liaison 100G entre les commutateurs ferait une différence notable?
Libbux

Ils peuvent déjà plus que saturer leur lien local, alors non. Avec un équipement de test sensible, vous pouvez mesurer la variation de la latence par paquet, mais cela n'accélérera pas les liaisons d'un gig. :-) Cela dit, le véritable avantage est d'éviter la congestion lorsqu'il y a plus que les hôtes A et B utilisant le lien.
Ricky Beam

0

Étant donné que le débit est = à la taille de Windows / RTT, tout ce qui raccourcit le RTT augmenterait le débit, la question est de savoir si cela en vaut la peine. Plus la taille de la fenêtre est grande, plus le RTT diminue.


1
avec une fenêtre de 128k, 1G de bout en bout serait ~ 3,5G / s. avec un lien 10G au milieu, ce nombre passe à ~ 5G / s. Vous remarquerez que les deux nombres sont bien au-dessus de la vitesse de la liaison hôte, donc cela ne serait pas du tout perceptible.
Ricky Beam

0

Ça dépend.

Dans un réseau autrement inactif, cela dépend si les dispositifs de commutation sont "mémorisés et retransmis" ou "coupés". Si les dispositifs de commutation sont stockés et transférés, des liaisons plus rapides signifieront une latence plus faible. Cependant, s'ils prennent en charge la commutation par coupure, une latence supplémentaire sera introduite car il n'est pas possible de faire une commutation par coupure d'une liaison entrante plus lente à une liaison sortante plus rapide. Cependant, à moins que vous ne jouiez dans le monde du trading haute fréquence ou similaire, cela est susceptible d'être négligeable dans les deux cas.

Dans un réseau pratique, avoir plus de capacité dans le cœur diminue les risques de congestion provenant d'autres utilisateurs. La congestion fait baisser le débit et la latence. En général, il est bon que vos liens principaux soient plus rapides que vos liens d'utilisateur final afin qu'aucun utilisateur final ne puisse les saturer (donc si vous exécutez du gigabit sur le bureau, vous devriez probablement utiliser un noyau de 10 gigabit).

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.