Je suis curieux de savoir quelles sont les meilleures pratiques dans l'industrie du développement de jeux pour rendre l'univers 3D?
Pour être plus précis:
- Les points de données sont donnés et statiques. Chaque point a sa position, sa couleur et sa taille;
- L'ensemble de données est beaucoup plus volumineux que la mémoire disponible;
- L'utilisateur devrait être en mesure de «faire un zoom arrière» pour voir une image plus grande à la fois;
L'approche la plus naïve serait de diviser l'univers en cubes et de ne rendre que ce qui est visible. Je ne sais pas comment dans ce scénario dois-je implémenter le "zoom arrière". Dois-je précalculer des cubes pour chaque niveau de zoom possible? Ou peut-être existe-t-il de meilleures approches?
Je recherche une solution agnostique technologique.
infinite universe
pourrait être similaire au suivi des relations entre deux points sur une courbe de Mandelbrot après un zoom à différents niveaux. À un certain niveau, vous pouvez perdre de la précision et être incapable de les distinguer ou même de les retrouver.