Quelle part de l'utilisation électrique d'un GPU est probablement transformée en une augmentation de la température de l'air?


21

J'essaie de trouver une bonne estimation approximative de la quantité de puissance maximale d'une carte graphique transformée en air chaud.

Supposons qu'une carte graphique utilise X watts pour une utilisation maximale. Quelle quantité est libérée sous forme de chaleur dans l'air via la configuration de refroidissement, et quelle quantité ne l'est pas (sinon, où va-t-elle? Vers le sol?)

Oui, je sais qu'il y a beaucoup de variables ici, je cherche juste une estimation de quelqu'un qui comprendrait mieux que moi. J'utilise spécifiquement ce GPU comme exemple (Radeon 6990 375 watts max)


22
Tout cela, finalement.
Ignacio Vazquez-Abrams

2
+1 parce que j'étais une fois en réunion pour concevoir un nouveau laboratoire informatique et des installations.
Ben Jackson

Vous n'utiliserez que 375 watts lorsque votre programme travaillera très dur avec la carte ...
Spoon

La seule partie qui s'échappe vraiment est la RFI, et même une partie de cela va chauffer les choses localement.
Chris Stratton

Réponses:


25

Mes chiffres ne sont peut-être pas exactement exacts, mais je dirais que

99,99% de l'énergie qui entre dans le GPU, et même le CPU est converti en chaleur.

L'autre 0,01% est le signal réel sortant du GPU vers votre écran.

Le travail du GPU est de prendre beaucoup de données et de les traiter, ce qui nécessite beaucoup de calculs. Ces calculs consomment de l'énergie, produisent de la chaleur et éventuellement un résultat.


Maintenant, il est important de noter que bien que cela indique qu'il s'agit d'une carte 375W, elle ne consommera pas 375W tout au long de son fonctionnement. Tout comme votre CPU, votre GPU ne fera que ce dont vous avez besoin et peut diminuer <100W.

En parcourant simplement votre bureau Windows, la carte ne fait presque rien et ne dessine presque rien; mais lancez Crysis, et votre fréquence max max et la carte commencera à dessiner sa note maximale.


7
Et à son tour, ce 0,01% d'énergie dans le signal est consommé par l'écran - il est également transformé en chaleur, juste à un endroit différent.
Li-aung Yip

Cependant, une partie est transformée en lumière!
rjp

10
@RJP L'énergie qui va au panneau? Non. Il se dissipera dans les résistances de terminaison de la puce du récepteur HDMI ou DVI. De là, le signal est décodé, stocké dans une mémoire tampon et finalement envoyé aux pilotes de panneau où il est chassé sur la matrice de panneau. Cependant, l'alimentation d'origine de la carte graphique est fondamentalement complètement perdue dans les résistances de terminaison, et le peu qui reste ne laisse pas les circuits du récepteur TMDS.
alex.forencich

4
Oui, j'ai réussi à oublier que l'affichage n'est pas alimenté par la carte graphique. Ce serait une conception vraiment terrible.
rjp

12
Même le / light / est finalement transformé en chaleur, quand il frappe un objet dans votre maison et le chauffe un peu. L'univers marche vers l'entropie maximale, ce qui implique généralement que toutes les formes d'énergie se dissipent sous forme de chaleur ... éventuellement .
Li-aung Yip

11

Fondamentalement, tout va chauffer. À l'intérieur de la puce, il y a des milliards de minuscules transistors, chacun agit comme un très petit interrupteur. Ces transistors sont connectés pour former diverses fonctions logiques. En raison de la géométrie des transistors, ils ont tous de petites capacités parisitiques. Chaque fois que la logique change d'état, ce qui est en moyenne le même taux que l'horloge, ces capacités doivent être chargées et déchargées. Le courant pour ce faire doit traverser les transistors, qui ont une certaine résistance. La résistance et le flux de courant signifient une chute de tension, et les volts fois ampères sont la puissance. À chaque cycle d'horloge, de l'énergie est consommée pour charger et décharger ces condensateurs. Cela se produit dans tous les circuits intégrés - votre GPU, votre CPU, votre RAM, votre contrôleur de disque dur, votre téléphone portable, etc. C'est pourquoi lorsque vous overclockez votre CPU ou GPU, il utilise plus d'énergie et génère plus de chaleur. C'est également la raison pour laquelle votre ordinateur portable variera sa vitesse d'horloge à la volée pour économiser de l'énergie au lieu de laisser le processeur tourner au ralenti.

Pour ce qui n'est pas de la chaleur, ce n'est pas beaucoup. Un watt ou deux pour le ventilateur. Peut être. Peut-être cent milliwatts pour les LED, si la carte en a un tas. Deux milliwats se déplacent sur le bus PCI express, pour être absorbés par les terminaisons à l'autre extrémité du bus. Quelques milliwats supplémentaires sont envoyés sur le port DVI ou HDMI pour être absorbés par les terminaisons à l'autre extrémité. Dans l'ensemble, avec un TDP de 375 watts, moins de 0,1% de la puissance provenant de l'alimentation ne se dissipe pas directement sous forme de chaleur.


Et le reste est indirectement dissipé sous forme de chaleur, car les photons et les phonons sont absorbés par d'autres matériaux.
Ignacio Vazquez-Abrams

1
Eh bien, vous pourriez probablement faire cet argument au sujet d'une grande partie de l'électricité que nous consommons en général. Ampoules, cuisinière, micro-ondes, chauffe-eau, réfrigérateur, chaîne stéréo, télévision, etc. La laveuse et la sécheuse peuvent être une histoire légèrement différente.
alex.forencich

1

Tout est transformé en air chaud, à l'exception de la petite quantité de lumière générée par les LED. Il n'y a pas d'autre endroit où l'énergie peut aller.


1
@BumSkeeter: Toute l'énergie électrique consommée par un CI est libérée sous forme de chaleur.
Ignacio Vazquez-Abrams

1
Toute l'énergie électrique fournie au GPU est "consommée". La question est de savoir quelle forme d'énergie elle devient. Pratiquement tout cela se transforme en chaleur. Bien sûr, un GPU évalué à 375 W peut généralement consommer beaucoup moins que cela.
Joe Hass

1
Dans le contexte, j'essaie d'utiliser cette valeur car le GPU est en cours d'exécution (exploitation de bitcoins). J'essaie de comprendre (pour le plaisir) la viabilité du chauffage d'une maison avec des cartes graphiques.
KDecker

2
@BumSkeeter, utiliser un circuit pour chauffer une pièce est à peu près aussi efficace qu'un radiateur électrique. Cela dit, si votre but était d'exploiter au lieu de chauffer une pièce, le GPU n'est plus viable. Vous devez utiliser FPGA ou ASIC pour gagner de l'argent sur votre facture d'électricité. Ou mieux encore, ne tombez pas du tout dans l'arnaque.
travisbartley

1
@ trav1s j'en suis bien conscient. Ce n'est pas non plus une arnaque.
KDecker
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.