Existe-t-il un moyen numériquement stable de calculer les valeurs d'une distribution bêta pour les grands nombres alpha, bêta (par exemple alpha, bêta> 1000000)?
En fait, je n'ai besoin que d'un intervalle de confiance de 99% autour du mode, si cela rend le problème plus facile.
Ajouter : Je suis désolé, ma question n'était pas aussi clairement formulée que je le pensais. Ce que je veux faire, c'est ceci: j'ai une machine qui inspecte les produits sur un tapis roulant. Une partie de ces produits est rejetée par la machine. Maintenant, si l'opérateur de la machine modifie un paramètre d'inspection, je veux lui montrer le taux de rejet estimé et quelques indices sur la fiabilité de l'estimation actuelle.
J'ai donc pensé traiter le taux de rejet réel comme une variable aléatoire X, et calculer la distribution de probabilité pour cette variable aléatoire en fonction du nombre d'objets rejetés N et d'objets acceptés M. Si je suppose une distribution préalable uniforme pour X, ceci est un distribution bêta en fonction de N et M. Je peux soit afficher cette distribution directement à l'utilisateur, soit trouver un intervalle [l, r] afin que le taux de rejet réel soit dans cet intervalle avec p> = 0,99 (en utilisant la terminologie de shabbychef) et afficher ceci intervalle. Pour les petits M, N (c'est-à-dire immédiatement après le changement de paramètre), je peux calculer la distribution directement et approximer l'intervalle [l, r]. Mais pour les grands M, N, cette approche naïve conduit à des erreurs de sous-dépassement, car x ^ N * (1-x) ^ M est trop petit pour être représenté comme un flotteur à double précision.
Je suppose que mon meilleur pari est d'utiliser ma distribution bêta naïve pour les petits M, N et de passer à une distribution normale avec la même moyenne et la même variance dès que M, N dépasse un certain seuil. Cela a-t-il du sens?