Comme d'autres l'ont dit, nous ne pouvons plus refroidir efficacement les processeurs si nous devions pousser la tension requise pour les mêmes augmentations de fréquence d'horloge relatives par le passé. Il fut un temps (époque P4 et antérieure) où vous pouviez acheter un nouveau processeur et voir qu'un gain "immédiat" était lié à la vitesse, car la fréquence d'horloge avait été considérablement augmentée par rapport à la génération précédente. Nous avons maintenant frappé un mur thermique, en quelque sorte.
Chaque nouvelle génération moderne de processeurs augmente très légèrement la fréquence d'horloge, mais ceci est également lié à la capacité de les refroidir de manière appropriée. Les fabricants de puces, tels qu'Intel, s'efforcent en permanence de réduire la taille des puces du processeur afin de les rendre plus efficaces en énergie et de produire moins de chaleur aux mêmes horloges. Il est à noter que la taille réduite de ces matrices rend ceux-ci plus enclins à mourir de surtension plutôt que de surchauffe. Cela signifie également qu'il limite également la fréquence d'horloge maximale de tous les processeurs de la génération actuelle sans autres optimisations du fabricant de puces.
L'augmentation du nombre de cœurs sur la puce est un autre domaine sur lequel les fabricants de puces se concentrent. Cela prend en compte des augmentations significatives de la puissance de calcul, mais uniquement lorsque vous utilisez un logiciel qui tire parti de plusieurs cœurs. Notez la différence entre la puissance de calcul et la vitesse ici. En termes simples, la vitesse désigne la rapidité avec laquelle un ordinateur peut exécuter une instruction unique, tandis que la puissance de calcul désigne le nombre de calculs qu'un ordinateur peut effectuer dans un laps de temps donné. Les systèmes d’exploitation modernes et la plupart des logiciels modernes tirent parti de plusieurs cœurs. Le problème est que la programmation simultanée / parallèle est plus difficile que le paradigme de la programmation linéaire standard. Cela a augmenté le temps nécessaire à de nombreux programmes sur le marché pour tirer pleinement parti de ces nouveaux processeurs, car de nombreux développeurs n'étaient pas habitués à écrire des programmes de cette façon. Il existe encore sur le marché des programmes (modernes ou hérités) qui ne tirent pas parti des multi-cœurs ou du multi-threading. Le programme de cryptage que vous avez cité en est un exemple.
Ces deux domaines d’activité des fabricants de puces sont intrinsèquement liés. En réduisant à la fois la taille de la matrice et la consommation d'énergie d'une puce, ils sont alors en mesure d'augmenter le nombre de cœurs sur ladite puce. Cependant, cela finira par heurter un mur, provoquant un autre changement de paradigme plus radical.
La raison de ce changement de paradigme est due au fait que nous approchons des limites du silicium en tant que matériau de base pour la production de puces. C’est quelque chose que Intel et d’autres travaillent à résoudre depuis un certain temps. Intel a indiqué qu’il disposait actuellement d’une alternative au silicium, que nous commencerons probablement à découvrir après 2017. Outre ce nouveau matériau, Intel étudie également la possibilité de "tripler la puissance de traitement" des transistors 3D. Voici un article mentionnant ces deux idées: http://apcmag.com/intel-looks-beyond-silicon-for-processors-past-2017.htm