C'est parce qu'il est plus facile et moins cher d'augmenter la bande passante de la DRAM que de diminuer la latence. Pour obtenir les données d'une ligne ouverte de RAM, une quantité de travail non triviale est nécessaire.
L'adresse de la colonne doit être décodée, les multiplexeurs sélectionnant les lignes auxquelles accéder doivent être pilotés, et les données doivent se déplacer à travers la puce vers les tampons de sortie. Cela prend un peu de temps, d'autant plus que les puces SDRAM sont fabriquées selon un processus adapté à des densités de RAM élevées et non à des vitesses logiques élevées. Pour augmenter la bande passante, par exemple en utilisant le DDR (1, 2, 3 ou 4), la majeure partie de la logique peut être soit élargie soit canalisée, et peut fonctionner à la même vitesse que dans la génération précédente. La seule chose qui doit être plus rapide est le pilote d'E / S pour les broches DDR.
En revanche, pour diminuer la latence, toute l'opération doit être accélérée, ce qui est beaucoup plus difficile. Très probablement, des parties du RAM devraient être réalisées sur un processus similaire à celui des processeurs à haute vitesse, ce qui augmente considérablement le coût (le processus à grande vitesse est plus cher, et chaque puce doit passer par 2 processus différents).
Si vous comparez les caches CPU avec la RAM et le disque dur / SSD, il existe une relation inverse entre le stockage volumineux et le stockage rapide. Un L1 $ est très rapide, mais ne peut contenir qu'entre 32 et 256 Ko de données. La raison pour laquelle il est si rapide est qu'il est petit:
- Il peut être placé très près du CPU l'utilisant, ce qui signifie que les données doivent parcourir une distance plus courte pour y accéder
- Les fils peuvent être raccourcis, ce qui signifie encore une fois qu'il faut moins de temps pour que les données les traversent
- Il ne prend pas beaucoup de place ou de nombreux transistors, donc le faire sur un processus à vitesse optimisée et utiliser beaucoup d'énergie par bit stocké n'est pas si cher
Au fur et à mesure que vous montez dans la hiérarchie, chaque option de stockage augmente en capacité, mais également en surface et en s'éloignant de l'appareil qui l'utilise, ce qui signifie que l'appareil doit ralentir.