Mon jeu utilise DirectX 10, et j'ai un problème où les utilisateurs signalent que mon jeu ne capte pas sur leur carte graphique. Au lieu de cela, il préfère fonctionner sur leur carte Intel intégrée, ce qui ruine les performances. Il est possible que cela soit lié à Windows 8. Il pourrait également être lié aux cartes mobiles.
Jusqu'à présent, j'ai créé le périphérique DirectX 10 sans adaptateur spécifié (comme je l'ai vu dans tous les exemples / démos jusqu'à présent), pour permettre à DirectX de choisir son propre adaptateur. Apparemment, je vais devoir changer cela.
J'ai déjà une fonction qui parcourt tous les adaptateurs disponibles et choisit celle avec la plus grande quantité de mémoire dédiée. Cela fonctionne très bien pour corriger le problème, mais est-ce correct en général?
Malheureusement, je ne peux pas compter sur la carte ayant une sortie vidéo valide (c'est-à-dire: un moniteur branché) car les machines affectées par ce problème ne signalent aucune sortie pour la carte souhaitée.
Quel algorithme puis-je utiliser pour choisir correctement l'adaptateur à utiliser avec DirectX?