Une situation extrêmement courante en infographie est que la couleur d'un pixel est égale à l'intégrale d'une fonction à valeur réelle. Souvent, la fonction est trop compliquée à résoudre analytiquement, nous nous retrouvons donc avec une approximation numérique. Mais la fonction est également souvent très coûteuse à calculer, nous sommes donc très limités dans le nombre d'échantillons que nous pouvons calculer. (Par exemple, vous ne pouvez pas simplement décider de prendre un million d'échantillons et d'en rester là.)
En général, alors, ce que vous voulez faire est d'évaluer la fonction à des points choisis au hasard jusqu'à ce que l'intégrale estimée devienne "suffisamment précise". Ce qui m'amène à ma question actuelle: comment estimez-vous la «précision» de l'intégrale?
Plus précisément, nous avons , qui est implémenté par un algorithme informatique lent et compliqué. Nous voulons estimer
Nous pouvons calculer pour tout x que nous désirons, mais c'est cher. Nous voulons donc choisir plusieurs valeurs x au hasard et nous arrêter lorsque l'estimation pour k devient suffisamment précise. Pour ce faire, nous devons bien sûr savoir dans quelle mesure l'estimation actuelle est exacte.
Je ne sais même pas quels outils statistiques seraient appropriés pour ce genre de problème. Mais il me semble que si nous ne savons absolument rien de , le problème est insoluble. Par exemple, si vous calculez f ( x ) mille fois et qu'il est toujours nul, votre intégrale estimée serait nulle. Mais, ne sachant rien de f , il est encore possible que f ( x ) = 1 , 000 , 000 partout , sauf les points que vous est arrivé à l' échantillon, de sorte que votre estimation est horriblement mal!
Edit: OK, donc cela semble avoir généré beaucoup de réponses, ce qui est bien. Plutôt que de répondre à chacun d'eux individuellement, je vais essayer de compléter ici quelques informations supplémentaires.
De plus, étant donné le nombre de fois où "Monte Carlo" est apparu, je suppose que c'est le terme technique pour ce type d'intégration?