Lorsque l'on rapporte la complexité algorithmique d'un algorithme, on suppose que les calculs sous-jacents sont effectués sur une machine abstraite (par exemple RAM) qui se rapproche d'un processeur moderne. De tels modèles nous permettent de rendre compte de la complexité temporelle et spatiale des algorithmes. Maintenant, avec l'extension des GPGPU , on se demande s'il existe des modèles bien connus où l'on peut également prendre en compte la consommation d'énergie.
Les GPU sont bien connus pour consommer une quantité considérable d'énergie et certaines instructions entrent dans différentes catégories de consommation d'énergie en fonction de leur complexité et de leur emplacement sur la puce sophistiquée. Par conséquent, les instructions, d'un point de vue énergétique, ne sont pas de coût unitaire (ou même fixe). Une extension triviale attribuerait des poids au coût de fonctionnement, mais je recherche un modèle puissant où une opération / instruction pourrait coûter des unités d'énergie non constantes , par exemple la quantité polynomiale (ou encore plus complexe, par exemple: la fonction du temps écoulé depuis le début) de l'algorithme; ou en tenant compte de la probabilité de défaillance du système de refroidissement, ce qui chauffera les puces et ralentira la fréquence d'horloge, etc.)
Existe-t-il de tels modèles dans lesquels des coûts et des défauts non négligeables peuvent être incorporés?