Ceci est une question de conception de logiciel
Je travaillais sur la règle suivante pour la vitesse
cache memory > memory > disk > network
Chaque étape étant 5 à 10 fois supérieure à l’étape précédente (par exemple, la mémoire cache est 10 fois plus rapide que la mémoire principale).
Maintenant, il semble que le gigabit ethernet ait une latence inférieure à celle du disque local. Ainsi, les opérations de lecture dans une base de données en mémoire distante peuvent être plus rapides que les lectures sur disque local. Cela ressemble à une hérésie pour un vieil homme comme moi. (Je viens de passer un peu de temps à construire un cache local sur le disque pour éviter de faire des allers-retours sur le réseau - d'où ma question)
Quelqu'un a-t-il une expérience / des chiffres / des conseils dans ce domaine?
Et oui, je sais que le seul moyen de le savoir est de construire et de mesurer, mais je me posais des questions sur la règle générale.
éditer :
Voici les données intéressantes de la réponse du haut:
Aller-retour dans le même centre de données 500 000 ns
Disque chercher 10 000 000 ns
C'est un choc pour moi. Mon modèle mental est qu'un aller-retour réseau est par nature lent. Et ce n'est pas le cas - c'est 10 fois plus rapide qu'un disque 'aller-retour'.
Jeff attwood a posté ce v bon blog sur le sujet http://blog.codinghorror.com/the-infinite-space-between-words/