Je peux envoyer un paquet IP en Europe plus rapidement que je ne peux envoyer un pixel à l'écran. Comment ça va?
Et si ce n’était pas John Carmack, je le classerais sous «les interwebs étant stupides».
Mais c'est John Carmack.
Comment cela peut-il être vrai?
Pour éviter les discussions sur ce que signifie exactement le tweet, voici ce que j'aimerais obtenir une réponse:
Dans le meilleur des cas, combien de temps faut-il pour qu'un seul paquet IP soit envoyé d'un serveur situé aux États-Unis à quelque part en Europe, à partir du moment où un logiciel déclenche le paquet, jusqu'au point où il est reçu par un logiciel situé au-dessus niveau de conducteur?
Combien de temps faut-il, dans le meilleur des cas, pour qu'un pixel soit affiché à l'écran, mesuré à partir du point où un logiciel au-dessus du niveau du pilote change la valeur de ce pixel?
Même en supposant que la connexion transatlantique soit le câble en fibre optique le plus fin que l’argent puisse acheter, et que John soit assis à côté de son fournisseur d’accès, les données doivent toujours être codées dans un paquet IP, puis passer de la mémoire principale à sa carte réseau. , de là à travers un câble dans le mur dans un autre bâtiment, y sautera probablement sur quelques serveurs (mais supposons qu’il n’a besoin que d’un seul relais), se photonise à travers l’océan, reconverti en impulsion électrique par un photocapteur, et enfin interprété par une autre carte réseau. Arrêtons là.
En ce qui concerne le pixel, il s’agit d’un simple mot machine qui est envoyé dans l’emplacement PCI Express, écrit dans une mémoire tampon, qui est ensuite vidé à l’écran. Même en tenant compte du fait que les “pixels simples” entraînent probablement la transmission de la totalité de la mémoire tampon à l’affichage, je ne vois pas comment cela pourrait être plus lent: ce n’est pas comme si les bits étaient transférés “un par un” - mais plutôt sont des impulsions électriques consécutives qui sont transférées sans latence entre elles (non?).