Pourquoi tous les processeurs ne sont-ils pas "overclockés" par défaut? [dupliquer]


23

Dupliquer possible:
Pourquoi les processeurs modernes sont-ils «sous-horlogés»?

Il y a quelque temps, lorsque je cherchais un ordinateur de bureau, je suis tombé sur de nombreuses discussions au cours desquelles les techniciens ont parlé de la possibilité de prendre un processeur 2,67 GHz, par exemple, et de l'overclocker pour qu'il fonctionne à 4 GHz. Si un processeur est capable d'une telle vitesse, pourquoi ne sort-il pas de cette manière?


1
Recherchez les tolérances de fabrication et les statistiques de variation normale. Rien n'est moyen. Surtout dans les pires conditions de température et de tension.
hotpaw2

23
Ma voiture a une vitesse maximale de 150 mph. Pourquoi dois-je conduire 65?
Shinrai

29
@ Shinrai, cela me semble une mauvaise analogie.
Mr.Wizard

4
à part: comment exactement "overclockez-vous" quelque chose par défaut? l'usine a réglé par défaut pour commencer.
Sirex

1
@ Mr.Wizard - On dirait que nous sommes attachés, haha. Je suis d'accord que ce n'est pas la meilleure analogie, c'est plus de "C'est ce que j'ai lu quand je vois ça"
Shinrai le

Réponses:


27

Tout d’abord, tous les processeurs ne sont pas capables d’overclocker. Beaucoup ont des multiplicateurs fixes ou limités. Les fabricants de matériel sont heureux de vendre les processeurs et les périphériques avec plus de liberté pour des prix plus élevés. Les vrais "overclockers" semblent payer n'importe quoi dans la mesure où cela leur permet de doubler les valeurs d'usine par défaut ...

Deuxièmement, c'est un problème de refroidissement et d'efficacité. La consommation d'énergie et la fréquence ne sont pas linéaires, pas plus que les performances réelles (d'autant plus que, avec des processeurs plus rapides, les autres composants du système deviennent rapidement des goulots d'étranglement ...).

Avec les processeurs overclockés, la durabilité et la durée de vie varient fortement, même au sein d'une série de fabrication. La fréquence à laquelle elles sont vendues est une fréquence à laquelle toutes les unités d'une série sont connues pour fonctionner de manière stable, quelles que soient les différences de détail possibles. Un processeur d'une série peut échouer rapidement car vous l'overclockez, tandis qu'un autre peut fonctionner de manière stable jusqu'à 4+ Ghz.


5
J'aimerais aborder le sujet du refroidissement et de l'efficacité ici. Je connais des gens qui gèrent de grandes grappes de calcul et, en été, leur refroidissement ne suit parfois pas le rythme. Ils ont travaillé un moyen de sous horloge leurs serveurs dans le logiciel, de sorte que lorsque leurs systèmes ne peuvent pas gérer la chaleur, ils peuvent évoluer de manière draconienne la puissance utilisée et étant ainsi produit la chaleur, plutôt que de devoir fermer des machines qui sont L'exécution de tâches qui peuvent prendre plusieurs mois, même avec des grappes modernes à plusieurs cœurs. Amener les processeurs à obtenir des cycles supplémentaires n’a aucun sens là-bas.
Dave Jacoby

2
De même, je suis sur un netbook en ce moment, pour les utilisations que je lui donne, il n'a pas besoin de toute la vitesse de la proc, et courir plus froid fonctionnerait mieux. .
Dave Jacoby

4
@VarLogRant que vous venez de décrire Dynamic Frequency Scaling, ( en.wikipedia.org/wiki/Dynamic_frequency_scaling ), comme le font de nombreux processeurs modernes, en particulier pour les appareils mobiles. La consommation d'énergie est en réalité une fonction de la vitesse d'horloge (étant donné que les circuits CMOS consomment très peu d'énergie lorsqu'ils sont dans un état statique), il s'agit donc d'un outil précieux pour économiser l'énergie.
SplinterReality

20

CPU Binning est pertinent ici:

http://en.wikipedia.org/wiki/Product_binning

La fabrication de semi-conducteurs est un processus imprécis, avec des estimations aussi basses que 30% pour les rendements. Les défauts de fabrication ne sont cependant pas toujours fatals. Dans de nombreux cas, il est possible de récupérer une pièce en échangeant les caractéristiques de performance, par exemple en réduisant sa fréquence d'horloge ou en désactivant les pièces non critiques défectueuses. Plutôt que de simplement se débarrasser de ces produits, leur niveau de performance peut être réduit en conséquence et vendu à un prix inférieur, répondant ainsi aux besoins des segments de marché bas de gamme.

Cette pratique s’observe dans l’ensemble du secteur des semi-conducteurs, y compris les unités centrales, la mémoire informatique et les processeurs graphiques.


2
J'ai lu qu'Intel fait cela pour la série de processeurs "Core". Ils fabriquent les processeurs Core en tant que deux cœurs sur une seule matrice. Si l'un des jetons est testé incorrectement, il est désactivé et vendu comme un Core Solo. Deux puces Core Duo viables sont scellées dans le même boîtier pour former un Core Extreme. De cette manière, Intel récupère son stock, autrement défectueux, et veille à ce que le taux de défauts des puces Core Extreme soit égal à zéro.
SplinterReality

1
@ charles Je ne suis pas sûr que ce soit le cas pour les derniers processeurs Intel. La série Core 2 n’était pas véritablement multi-cœur, mais de multiples puces sur la même puce .. alors que les Core i3, i5, i7, etc. sont tous de véritables conceptions multi-coeurs. Voir extremetech.com/article2/0,2845,2049688,00.asp
Jeff Atwood Le

@ Jeff Ahh, donc ma connaissance est un peu datée. Merci pour la mise à jour, je suis sûr que d'autres lecteurs trouveront cette information utile également.
SplinterReality

2
@ Jeff - Bien sur la série Core 2? Je pensais que c’était les processeurs centraux (sans les 2) qui étaient essentiellement deux P4 collés ensemble et qui, en pratique, étaient normalement plus lents et plus chauds qu’un P4 à cœur unique. Le "2" dans "Core 2" ne signifie pas dual core - c'est ce que le "Duo" signifie dans "Core 2 Duo".
Steve314

1
@ Jeff - BTW - il est probablement utile de mentionner l’aspect économique du binning. Lors du test de vos puces et de la réduction de certaines d'entre elles, vous n'en finissez probablement pas assez pour satisfaire le marché bon marché des processeurs bas de gamme, et bien sûr, vous ne voulez pas que le marché haut de gamme fasse grimper le prix vers le bas.
Steve314

19

Outre les tolérances et les raisons MTBF affichées, il en existe une autre.

(S'il vous plaît supporter avec moi que je n'ai pas suivi avec le matériel depuis très longtemps.)

Le coût pour Intel de fabriquer une usine de fabrication capable de créer une puce spécifique représente un coût fixe très élevé. Le coût pour eux de fabriquer un seul processeur une fois l’usine construite est très minime.

Il y a un avantage économique à fabriquer le même dé pour une série de puces, puis à verrouiller les puces à différents multiplicateurs pour la différenciation et la tarification des produits. De cette façon, tous les copeaux sortent de la même usine. Au lieu d'avoir une usine unique pour chaque vitesse de puce. Si vous souhaitez acheter une puce bas de gamme, la solution économique pour Intel consiste à vous vendre une puce de milieu de gamme configurée pour fonctionner à une fréquence plus basse.

Vous le constaterez également sur d'autres marchés, lorsque le processus de fabrication nécessite un coût fixe initial élevé et un coût marginal très faible. Tous les vélos en aluminium de grandes marques, par exemple, sont fabriqués dans la même usine, par les mêmes robots.


La même chose arrive avec les moteurs, aussi. Lorsque les moteurs de voiture sont méticuleusement conçus selon leur conception («blueprinting»), ils fonctionnent beaucoup mieux que la même conception réalisée sur la chaîne de production avec une tolérance beaucoup plus généreuse. Contrairement aux moteurs de voiture, les processeurs se rapprochent généralement beaucoup plus de leur conception idéale et donnent des processeurs plus performants capables de supporter l'overclocking.
Toybuilder

Je suis curieux de la note de vélo. Pouvez-vous donner plus d'informations?
Mr.Wizard

7

Parce que dans de nombreux cas, le sur-cadencement entraîne une durée de vie réduite (en termes de temps) et beaucoup plus de chaleur.

Certains processeurs sont vendus en tant que produits surchargés - comme Black Edition d'AMD (qui a un multiplicateur déverrouillé) et Intels Extreme Edition.


6

C'est la différence entre la vitesse recommandée et la vitesse possible.

Les fabricants ne peuvent pas faire en sorte qu'un processeur atteigne la vitesse exacte pour laquelle le processeur est créé; il a été créé avec une capacité supérieure à cela, mais vous ne savez pas quelle est la limite supérieure avant de l'avoir franchi.

Sans parler de la chaleur supplémentaire que le système n'est pas conçu pour gérer, d'où la nécessité de systèmes de refroidissement supplémentaires lorsque l'overclocking est excessif.


4

Il y a des raisons pour cela :

  1. Vous ne pouvez pas avoir les mêmes processeurs de code overclockés à la même vitesse. Ex: E2400 avec différents steppings aura un potentiel différent d'overclocking.
  2. Votre processeur ne sera pas stable à la vitesse overclockée.
  3. Les processeurs sont produits pour de nombreux pays avec des conditions météorologiques, temp. Donc, à l'origine, ils sont à peu près sûrs que c'est stable.
  4. D'une certaine manière, il est intéressant pour l'overclocker et les geeks qui veulent avoir un PC plus fort avec de meilleures connaissances.

3

Personne ne dit que les calculs sont garantis pour arriver correctement à des vitesses overclockées. :-)

C'est la précision par rapport à la vitesse… c'est un risque que les gens prennent, parfois en testant le processeur pour voir quand il commence à produire des résultats erronés.


1

L'overclocking produit plus de chaleur et rend l'ordinateur moins stable. Pour l'overclocker, vous devez disposer d'un ventilateur et / ou d'un système de refroidissement par eau amélioré.


1
Vous n'avez pas besoin d'un système de refroidissement amélioré. Mais ça aide certainement.
Wuffers

1

L’aspect différenciation des prix (que fianchetto décrit assez bien) a récemment évolué quelque peu de la vitesse d’horloge au nombre de cœurs. À l'exception de quelques processeurs très bon marché, Intel propose une gamme complète allant de 2,8 à 3,6 GHz, ce qui est à peu près le même pour AMD.

Il ne fait aucun doute qu'AMD pousse actuellement ses modèles 4 et 6 modèles principaux à la limite de ce qu'ils peuvent raisonnablement vendre comme stable.

Ce que Intel fait avec ses processeurs Sandy Bridge est plus remarquable, le modèle actuel le plus performant de cette gamme est un processeur à 4 cœurs cadencé à 3,4 GHz, mais les résultats en matière d’overclocking se situent dans la plage de 4,4 à 4,8 GHz avec un refroidisseur de stock à tension stockée. modèle qui est un overclock extrêmement élevé. Cela suggère qu'ils pourraient libérer un modèle 4 GHz avec très peu d'effort.

Cependant, si vous demandez au service marketing d’Intel, Sandy Bridge n’est pas leur architecture la plus performante, car cet emplacement est pris par l’ancien Gulftown à 6 cœurs. Le problème, c’est que Sandy Bridge est tellement mieux qu’il est difficile de justifier les 2 noyaux supplémentaires plutôt que de compenser la différence, mais selon la stratégie marketing, ils doivent le faire. Donc, afin de garder cette revendication quelque peu crédible, ils handicapent artificiellement Sandy Bridge.

Si Intel n’était pas aussi en avance sur AMD, il pousserait plus fort son matériel, mais comme AMD n’a rien à envier aux Sandy Bridges, Intel laisse les bizarreries du marketing décider de ce qu’il va vendre.


Informations très intéressantes
Chris Marisic

Cela se lit comme beaucoup de spéculation pour moi.
underscore_d

1

Outre les raisons techniques, que d'autres ont mentionnées ici, c'est aussi la question de la stratégie marketing. Particulièrement la segmentation du marché. Si vous souhaitez facturer des prix plus élevés sur le marché haut de gamme, les produits destinés à ce marché doivent être différenciés des marchés bas de gamme. Dans le cas des processeurs, cela se fait en désactivant les cœurs, en désactivant une partie du cache et en réduisant la vitesse des produits destinés au marché bas de gamme.


plus 1, bien que la désactivation susmentionnée puisse résulter d'un choix délibéré ou simplement de contraintes de qualité (binning). cela n'a pas d'importance tant qu'ils produisent suffisamment pour chaque segment de marché cible.
underscore_d
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.