Ma compréhension actuelle de la notion "intervalle de confiance avec le niveau de confiance " est que, si nous essayions de calculer plusieurs fois cet intervalle (chaque fois avec un nouvel échantillon), il contiendrait le paramètre correct de l'heure.
Bien que je me rende compte que ce n’est pas la même chose que "la probabilité que le vrai paramètre se situe dans cet intervalle", il ya une chose que je veux clarifier.
[Mise à jour majeure]
Avant de calculer un intervalle de confiance de 95%, il existe une probabilité de 95% que l'intervalle calculé couvre le vrai paramètre. Après avoir calculé l'intervalle de confiance et obtenu un intervalle particulier , nous ne pouvons plus le dire. Nous ne pouvons même pas avancer une sorte d'argument non fréquentiste selon lequel nous sommes sûrs à 95% que le véritable paramètre réside dans ; car si nous le pouvions, cela contredirait des contre-exemples tels que celui-ci: qu'est- ce qu'un intervalle de confiance?
Je ne veux pas en faire un débat sur la philosophie de la probabilité; Au lieu de cela, je cherche une explication mathématique précise du comment et du pourquoi voir l'intervalle particulier change (ou ne change pas) la probabilité de 95% que nous avions avant de voir cet intervalle. Si vous affirmez que « après avoir vu l'intervalle, la notion de probabilité n'a plus de sens », alors tout va bien, nous allons travailler dans une interprétation de la probabilité dans laquelle il ne a du sens.
Plus précisément:
Supposons que nous programmions un ordinateur pour calculer un intervalle de confiance de 95%. L'ordinateur effectue des calculs, calcule un intervalle et refuse de me montrer l'intervalle jusqu'à ce que je saisisse un mot de passe. Avant d'avoir saisi le mot de passe et vu l'intervalle (mais une fois que l'ordinateur l'a déjà calculé), quelle est la probabilité que l'intervalle contienne le vrai paramètre? C'est 95%, et cette partie n'est pas à débattre : c'est l'interprétation de la probabilité qui m'intéresse pour cette question particulière (je réalise que d'importants problèmes philosophiques que je supprime sont intentionnels).
Mais dès que je saisis le mot de passe et que l'ordinateur me montre l'intervalle qu'il a calculé, la probabilité (que l'intervalle contienne le paramètre vrai) peut changer. Toute affirmation selon laquelle cette probabilité ne changerait jamais serait en contradiction avec le contre-exemple ci-dessus. Dans ce contre-exemple, la probabilité pourrait passer de 50% à 100%, mais ...
Existe-t-il des exemples où la probabilité passe à autre chose que 100% ou 0% (EDIT: et si oui, quels sont-ils)?
Existe-t-il des exemples où la probabilité ne change pas après avoir vu l'intervalle particulier (c'est-à-dire que la probabilité que le paramètre réel se situe dans est toujours de 95%)?
Comment (et pourquoi) la probabilité change-t-elle en général après avoir vu l'ordinateur cracher ?
[Modifier]
Merci pour toutes les bonnes réponses et discussions utiles!