En premier lieu, j'imagine que cela dépend des shaders. Par exemple, le moteur Unreal aura une certaine méthode de traitement HDR, une certaine méthode de traitement du mappage de relief, une certaine méthode de gestion de la diffusion de la lumière, etc.
Ils auront également un niveau de clarté uniforme en termes de contraintes telles que la taille des textures et la prise en charge des couleurs.
De plus, les algorithmes seront similaires. Les objets seront tessellés en utilisant les mêmes algorithmes. AI prendra les décisions selon les mêmes architectures décisionnelles.
Si, par exemple, le mappage des bosses provoque des réactions spéculaires insensées et réagit fortement aux changements d’éclairage, vous commencez immédiatement à penser au moteur Doom 3. En effet, ce code de shader est partagé entre tous les jeux utilisant le moteur. Vous ne voudriez pas déchirer quelque chose comme ça.
"Tous les moteurs de jeu utilisent la même technologie de rendu 3D que nous utilisons tous"
La technologie est la même, mais les règles qui régissent l’apparence réelle du monde (éclairage, pavage, LOD, etc.) sont toutes écrites par le développeur. La technologie de rendu 3D n’a pas grand-chose à voir avec la qualité visuelle des éléments à l’écran. Même les règles d'application d'un éclairage ambiant plat sont laissées au développeur (en supposant que vous n'utilisez pas de pipelines à fonction fixe).
Vous pouvez faire en sorte que votre application OpenGL ressemble à votre application DirectX avec une difficulté souvent triviale. La technologie de rendu sous-jacente n'a vraiment pas beaucoup d'impact, sauf en ce qui concerne la vitesse.