Overclocking: dommage permanent?


8

J'ai toujours eu l'impression que l'overclocking de tout type de CPU (pour un PC ou un microcontrôleur), c'est une mauvaise chose. Vous utilisez essentiellement l'unité en dehors des spécifications du fabricant, ce qui signifie que l'appareil peut / peut ne pas fonctionner comme prévu. Cela peut aller plus vite, mais au risque d'un comportement erratique.

Je comprends que la réponse à l'overclock / not est une réponse philosophique en fonction du niveau de risque que vous souhaitez prendre avec vos appareils. Mais,

Quels types de dommages permanents peuvent être causés par l'overclocking d'un processeur?

(Remarque: je pose cette question parce qu'un certain nombre de mes amis sont gamerz et pensent overclocker les roxors soxors ... et pour une raison étrange après cela, leurs ordinateurs se cassent avec des écrans bleus et ensuite je suis appelé, et je veux des munitions à utiliser donc que je n'ai pas à dépanner le matériel potentiellement feuilleté si souvent ...)


"roxors soxors"?
Mateen Ulhaq

C'est un idiome américain passionné d'informatique. Cela signifie "c'est super."
J.Polfer

muntoo - La traduction directe de l33t (Leet) serait "rock [my] socks", et la traduction de cet argot en anglais normal est "This is great."
Kevin Vermeer

Réponses:


12

J'ai overclocké presque tous les ordinateurs (à l'exception des ordinateurs portables) que j'ai jamais possédés uniquement pour les économies de coûts et pour que les sims matlab ne prennent pas toute la journée.

L'overclocking, comme l'augmentation de la vitesse d'horloge ou du multiplicateur, ne devrait pas endommager les processeurs modernes. L'arrêt thermique du processeur devrait se déclencher suffisamment tôt pour éviter tout dommage. Les processeurs plus anciens n'avaient pas une protection thermique aussi robuste.

Si vous augmentez diverses tensions dans le but de fonctionner encore plus rapidement, vous pouvez par inadvertance endommager définitivement le CPU. Il est bon de respecter les spécifications de tension maximale données par le fabricant du processeur.

Selon votre modèle d'utilisation, l'overclocking peut réduire la durée de vie. C'est vraiment juste une fonction de la température du processeur, plus il fonctionne chaud, plus la durée de vie est courte. Si le processeur fonctionne à la limite de son indice TDP 24/7, je ne m'attendrais pas à ce qu'il dure pendant 10 ans.

En règle générale, vous n'utilisez pas l'appareil en dehors de ses spécifications de conception tant que vous restez dans les niveaux de tension spécifiés. Comme une conception est étoffée, les rendements de fabrication s'améliorent de plus en plus et les pièces regroupées à 2,6 GHz sont très souvent capables et testées à des vitesses beaucoup plus élevées, elles sont simplement regroupées à l'extrémité inférieure pour répondre à la demande du marché plus élevée pour ce segment.

Actuellement en train de taper sur un core i7 920 @ 4.1ghz avec refroidissement par air (à condition que ce soit un dissipateur thermique massif et 2 ventilateurs de 140 mm). Le pas D0, un pas plus récent qui est capable de vitesses beaucoup plus élevées que les pas plus anciens. En fait, j'ai effectué un test prime95 de 12 heures à 4,25 GHz, mais quelque chose de plus élevé a commencé à cracher des erreurs et je ne voulais plus augmenter les tensions d'alimentation, j'ai donc reculé un peu pour atteindre 4,1 pour une certaine marge. Vous devez également prendre en compte les changements de température ambiante si votre espace n'est pas climatisé.

EDIT pour le mouton:

L'effet sur le bélier dépend de l'architecture dont vous parlez et des fonctionnalités offertes par la carte mère.

Par exemple, dans l'architecture Core i7:

Dans l'architecture Core i7, vous avez 1 horloge de base qui génère les horloges pour le cœur du processeur, le «uncore», le QPI et la RAM via 4 multiplicateurs différents.

Dans certains modèles de CPU, ces multiplicateurs ont des plages limitées, mais la clé de votre question: lorsque vous overclockez le système, vous augmentez normalement l'horloge de base, ce qui augmente également l'horloge RAM. Mais, vous pouvez réduire le multiplicateur d'horloge RAM pour obtenir du stock ou très proche des vitesses de RAM stock si vous le souhaitez. Le Core i7 920 utilise par défaut le ram DDR3-1066 mais le DDR3-1600 est presque au même prix, donc la plupart des gens achètent le ram le plus rapide et ajustent le multiplicateur de RAM pour atteindre la cote 1600. Vous avez également le contrôle de la tension du RAM sur de bonnes cartes mères, vous avez donc la possibilité de survoler / cadencer le RAM si vous le souhaitez.

Dans certaines architectures plus anciennes, le contrôle du multiplicateur d'horloge RAM était limité ou inexistant, ce qui pouvait signifier que vous aviez besoin d'un RAM plus rapide pour atteindre une horloge CPU particulière.


@Mark - l'overclocking n'affecte-t-il pas également votre RAM avec certains changements de paramètres? J'ai eu un ami qui a overclocké son i5, et son slot0 sur la carte mère a été endommagé et a causé des erreurs de memtest. Il a changé le BCLOCK.
J.Polfer

@sheepsimulator - nice name :) et vérifiez ma modification. En bref, il aurait pu follement overclocker son bélier s'il avait simplement lancé aveuglément BCLK sans abaisser le multiplicateur de mémoire. La RAM n'a généralement pas beaucoup de protection thermique, le cas échéant, vous devez donc faire attention à vos horloges mémoire.
Mark

l'exécution de votre processeur à une température élevée réduira la durée de vie prévue du processeur. Juste comme note de côté, j'ai pensé l'ajouter. Je trouve toujours qu'en général mon ordinateur sera obsolète avant que mon CPU tombe en panne, donc pas un risque majeur.
Kortuk


2

Cela me rappelle un excellent petit article intitulé The Zen of Overclocking de Bob Colwell, qui était l'architecte en chef IA-32 pour les processeurs Intel Pentium Pro à Pentium 4.

Malheureusement, le document n'est pas disponible pour le grand public, mais devrait être disponible pour les membres de l'IEEE Computer Society et de nombreux réseaux / la plupart des universités. Il a été initialement publié dans Computer magazine, mars 2004 (Vol. 37, No. 3) pp. 9-12.

Quelques brèves citations:


Résumé : L' overclocking est une grande expérience incontrôlée du fonctionnement du système dans le meilleur des cas.

... Ce numéro d'Ordinateur [numéro de magazine] met en lumière ce que j'appelle la conception du «meilleur que le pire des cas». Avec une conception normale dans le pire des cas, tout système informatique est un conglomérat de composants fonctionnant dans les fréquences, les tensions d'alimentation et les plages de températures définies pour s'adapter simultanément aux valeurs les plus défavorables de chaque composant. (Les processeurs modernes ne le font plus vraiment de cette façon, mais ils l'ont fait une fois, et il est plus facile de penser au pire des cas de cette façon.) ...

... Comparez l'approche du siège des pantalons, peut-être que cela fonctionnera, des overclockers au défi d'ingénierie auquel Intel et AMD sont confrontés. Tout d'abord, notez que ce défi n'est pas seulement le revers de la médaille de l'overclocker. Les fabricants de puces doivent concevoir et produire des dizaines ou des centaines de millions de puces; les overclockeurs ne se soucient que d'un seul. Les fabricants doivent fixer un objectif de fiabilité quantifiable, et non, ce n'est pas «zéro panne, jamais». Ce serait une cible inaccessible - et peu productive - car l'atteindre nécessiterait d'éviter les rayons cosmiques. Même au niveau de la mer, cela nécessiterait plus de mètres de béton que n'importe quel acheteur d'ordinateur portable va trouver attrayant. Et même alors, le béton ne ferait qu'améliorer les chances. Cela resterait un jeu statistique. ...

Conclusion

Si vous ne passez pas la soie dentaire, elles ne pourriront pas nécessairement. La grande majorité des trajets en voiture n'incluent aucune flexion métallique, alors pourquoi porter des ceintures de sécurité? Et pourquoi ne pas fumer? Tous les fumeurs ne contractent pas le cancer. Ou vous pourriez adopter le compromis d'Oscar London, "Si vous fumez, pourquoi s'embêter à porter une ceinture de sécurité?" Et certains musiciens de rock des années 1960 sont toujours en vie, alors peut-être que tous ces médicaments sont vraiment bénéfiques, agissant comme une sorte de conservateur. Quant à moi, je suis ingénieur et je vis dans un monde statistique. Je pars avec la chance.


Quant aux détails de savoir si le dépassement de fréquence peut causer des dommages permanents? Oui, d'autant plus que la technologie de lithographie améliore la création de matrices à plus petite échelle (par exemple 35 nanomètres), l'épaisseur de l'isolant / oxyde est également diminuée. Cela signifie que cette barrière de plus en plus mince pourrait tomber en panne en raison d'une tension élevée ou d'une détérioration. Ainsi, la marge associée pour l'erreur acceptable diminue (ou la marge pour l'échec augmente).

Je crois que les transistors MOSFET sont toujours utilisés pour la conception du processeur, donc en regardant certaines des difficultés avec la réduction de la taille des MOSFET peut mettre en évidence d'autres problèmes potentiels que l'overclocking peut causer. Au niveau du système, l'overclocking peut également provoquer des interférences EMI / RFI internes / multicanaux dans la puce du processeur ou l'un des autres sous-systèmes (par exemple, le bus RAM), et peut réduire le rapport signal / bruit (SNR) de telle sorte que les les EMI / RFI externes ne sont plus tolérables et finissent par produire des erreurs aléatoires sur les bus numériques.

Et pour mémoire, j'ai endommagé les processeurs en raison d'un overclocking stupide et d'une mauvaise dissipation thermique. Donc au-delà de la théorie, c'est réellement possible.


Il existe vraiment 2 versions d'overclocking, la première étant de faire fonctionner l'appareil plus rapidement qu'il n'a jamais été conçu pour fonctionner. Le second étant en train d'exécuter une pièce qui a été placée à une vitesse inférieure à celle que sa famille peut exécuter. Le premier a certainement beaucoup plus de danger, le second, en particulier dans les étapes ultérieures du dé, est vraiment assez sûr. J'ai l'impression que l'article lié parlait principalement du premier.
Mark

@Mark, ma compréhension (incomplète) est que le binning (petite matrice, calibrée pour différentes vitesses) est basé sur une analyse statistique des rendements, et non pas uniquement sur l'économie de marché (coût par rapport à l'offre). Vous devez comparer les coûts irrécupérables (NRE) aux coûts de matériaux par unité pour vous indiquer si le binning a été utilisé pour maximiser les bénéfices.
mctylr

... même matrice, calibrée pour différentes vitesses ...
mctylr

Pour clarifier peut-être, le taux d'échec pour un dé individuel n'est pas le même sur toute la surface d'une plaquette, mais je crois que dans la plupart des cas, il est le plus bas au centre et augmente pour les matrices sur le bord extérieur de la plaquette. Ainsi, le regroupement de cœurs de matrice apparemment identiques est effectué en raison de la probabilité de défaillance, qui peut être atténuée par des réductions de vitesse ou la désactivation potentielle d'un sous-ensemble de fonctionnalités (c'est-à-dire si le cache L2 ou le FPU sont des points communs pour l'échec d'apparition en raison de la densité ou du parallèle -ness), une version groupée peut avoir la fonctionnalité désactivée, ce qui réduit les risques d'échec pour ces matrices les plus externes.
mctylr
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.