Comment les échantillons corrélés influencent-ils le comportement d'un moteur de rendu Monte Carlo?


18

La plupart des descriptions des méthodes de rendu Monte Carlo, telles que le traçage de chemin ou le traçage de chemin bidirectionnel, supposent que les échantillons sont générés indépendamment; c'est-à-dire qu'un générateur de nombres aléatoires standard est utilisé qui génère un flux de nombres indépendants et uniformément distribués.

Nous savons que des échantillons qui ne sont pas choisis indépendamment peuvent être bénéfiques en termes de bruit. Par exemple, l'échantillonnage stratifié et les séquences à faible écart sont deux exemples de schémas d'échantillonnage corrélés qui améliorent presque toujours les temps de rendu.

Cependant, il existe de nombreux cas où l'impact de la corrélation des échantillons n'est pas aussi net. Par exemple, les méthodes Markov Chain Monte Carlo telles que Metropolis Light Transport génèrent un flux d'échantillons corrélés à l'aide d'une chaîne Markov; les méthodes à plusieurs lumières réutilisent un petit ensemble de chemins de lumière pour de nombreux chemins de caméra, créant de nombreuses connexions d'ombre corrélées; même la cartographie des photons gagne en efficacité en réutilisant les trajets lumineux sur de nombreux pixels, augmentant également la corrélation des échantillons (bien que de manière biaisée).

Toutes ces méthodes de rendu peuvent s'avérer bénéfiques dans certaines scènes, mais semblent aggraver les choses dans d'autres. Il n'est pas clair comment quantifier la qualité des erreurs introduites par ces techniques, à part le rendu d'une scène avec différents algorithmes de rendu et le fait de savoir si l'un est meilleur que l'autre.

La question est donc la suivante: comment la corrélation d'échantillonnage influence-t-elle la variance et la convergence d'un estimateur de Monte Carlo? Pouvons-nous quantifier mathématiquement quel type de corrélation d'échantillon est meilleur que d'autres? Y a-t-il d'autres considérations qui pourraient influencer si la corrélation de l'échantillon est bénéfique ou préjudiciable (par exemple erreur de perception, scintillement d'animation)?


1
Il y a eu suffisamment d'études de psychologie des perceptions qui ont dit que nous ne pouvons pas dire quelle image semble plus réelle. utiliser le globe oculaire serait une terrible méthode de mesure.
v.oddou

Réponses:


8

Il y a une distinction importante à faire.

Les méthodes de Markov Chain Monte Carlo (telles que Metropolis Light Transport) reconnaissent pleinement le fait qu'elles produisent beaucoup de très corrélées, c'est en fait l'épine dorsale de l'algorithme.

D'un autre côté, il existe des algorithmes comme le traçage de chemin bidirectionnel, la méthode à plusieurs lumières, la cartographie des photons où le rôle crucial joue l'échantillonnage à importance multiple et son heuristique d'équilibre. L'optimalité de l'heuristique d'équilibre n'est prouvée que pour des échantillons indépendants. De nombreux algorithmes modernes ont des échantillons corrélés et pour certains, cela cause des problèmes et pour certains, ce n'est pas le cas.

Le problème des échantillons corrélés a été reconnu dans le document Probabilistic Connections for Bidirectional Path Tracing . Où ils ont modifié l'heuristique d'équilibre pour tenir compte de la corrélation. Jetez un œil à la figure 17 du document pour voir le résultat.


Je voudrais souligner que la corrélation est "toujours" mauvaise. Si vous pouvez vous permettre de faire un nouvel échantillon, faites-le. Mais la plupart du temps, vous ne pouvez pas vous le permettre, vous espérez donc que l'erreur due à la corrélation est faible.

Modifier pour expliquer le "toujours" : je veux dire cela dans le contexte de l'intégration MC entrez la description de l'image ici

Où vous mesurez l'erreur avec la variance de l'estimateur entrez la description de l'image ici

Si les échantillons sont indépendants, le terme de covariance est nul. Les échantillons corrélés rendent toujours ce terme non nul augmentant ainsi la variance de l'estimateur final.

C'est à première vue quelque peu contradictoire avec ce que l'on rencontre avec l'échantillonnage stratifié car la stratification abaisse l'erreur. Mais vous ne pouvez pas prouver que l'échantillonnage stratifié converge vers le résultat souhaité uniquement du point de vue probabiliste, car au cœur de l'échantillonnage stratifié, il n'y a aucune probabilité impliquée.


Et le problème avec l'échantillonnage stratifié est qu'il ne s'agit pas fondamentalement d'une méthode de Monte Carlo. L'échantillonnage stratifié provient de règles de quadrature standard pour l'intégration numérique, ce qui fonctionne très bien pour intégrer une fonction lisse dans de faibles dimensions. C'est pourquoi il est utilisé pour gérer un éclairage direct qui est un problème de faible dimension, mais sa finesse est discutable.

L'échantillonnage stratifié est donc encore un type de corrélation différent de celui par exemple de la corrélation dans les méthodes Many Light.


"Je voudrais souligner que la corrélation est" toujours "mauvaise. Si vous pouvez vous permettre de faire un nouvel échantillon, faites-le." Pourriez-vous élaborer? Pour moi, cela ressemble à n'importe quel type d'heuristique pour la distribution d'échantillons est mauvais, ce qui n'est probablement pas ce que vous vouliez dire.
David Kuri

J'ai édité la réponse, j'espère que ça a effacé une chose ou deux.
Tom

cela semble en effet contradictoire, mais je ne dirais pas que l'échantillonnage stratifié réduit l'erreur, il réduit seulement le bruit.
v.oddou du

4

La fonction d'intensité hémisphérique, c'est-à-dire la fonction hémisphérique de la lumière incidente multipliée par le BRDF, est corrélée au nombre d'échantillons requis par angle solide. Prenez la distribution d'échantillons de n'importe quelle méthode et comparez-la à cette fonction hémisphérique. Plus ils sont similaires, meilleure est la méthode dans ce cas particulier.

Notez que puisque cette fonction d'intensité est généralement inconnue , toutes ces méthodes utilisent une heuristique. Si les hypothèses de l'heuristique sont remplies, la distribution est meilleure (= plus proche de la fonction souhaitée) qu'une distribution aléatoire. Sinon, c'est pire.

Par exemple, l'échantillonnage d'importance utilise le BRDF pour distribuer les échantillons, ce qui est simple mais n'utilise qu'une partie de la fonction d'intensité. Une source de lumière très puissante éclairant une surface diffuse à faible angle obtiendra peu d'échantillons, bien que son influence puisse être encore énorme. Metropolis Light Transport génère de nouveaux échantillons à partir des précédents avec une intensité élevée, ce qui est bon pour quelques sources lumineuses puissantes, mais n'aide pas si la lumière arrive uniformément de toutes les directions.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.