Qu'est-ce qu'un intervalle de confiance?


86

Je sais approximativement et officieusement ce qu'est un intervalle de confiance. Cependant, je n'arrive pas à comprendre un détail assez important: selon Wikipedia:

Un intervalle de confiance ne permet pas de prédire que la vraie valeur du paramètre a une probabilité particulière d’être dans l’intervalle de confiance compte tenu des données réellement obtenues.

J'ai également vu des remarques similaires faites à plusieurs endroits sur ce site. Une définition plus correcte, également de Wikipedia, est:

si des intervalles de confiance sont construits pour de nombreuses analyses de données d'expériences répétées (et éventuellement différentes), la proportion de tels intervalles contenant la valeur vraie du paramètre correspondra approximativement au niveau de confiance.

Encore une fois, j'ai vu des points similaires formulés à plusieurs endroits sur ce site. Je ne comprends pas. Si, dans le cadre d'expériences répétées, la fraction des intervalles de confiance calculés contenant le paramètre vrai est , alors comment la probabilité que trouve dans l'intervalle de confiance calculé pour l'expérience réelle est-elle différente de ? Je cherche ce qui suit dans une réponse:( 1 - α ) θ ( 1 - α )θ(1α)θ(1α)

  1. Clarification de la distinction entre les définitions incorrectes et correctes ci-dessus.

  2. Une définition formelle et précise d'un intervalle de confiance qui montre clairement pourquoi la première définition est fausse.

  3. Un exemple concret d'un cas où la première définition est spectaculairement erronée, même si le modèle sous-jacent est correct.


4
Cet article contient de bonnes discussions sur la question des intervalles de confiance . Stats.stackexchange.com/questions/2356/… . Je pense que l’article cité dans cet article aide à mieux comprendre pourquoi les définitions ci-dessus sont correctes pour les intervalles de confiance. C'est souvent lors de la visualisation de la répartition des IC que l'on est capable de mieux les comprendre.
probabilitéislogique

2
Une partie de moi applaudit la question (+1). Une partie concurrente veut souligner que 1. La grande majorité des utilisateurs de statistiques, ceux qui utilisent les statistiques de manière pragmatique mais non philosophique pour se faire une idée de la chimie ou des études de marché, ne saisiront jamais les subtilités des problèmes, et nous allons souvent être incapable d'expliquer les résultats. 2. Même certains statisticiens puristes peuvent tomber dans le piège de faire des déclarations supposément probabilistes, comme celles impliquant des intervalles de confiance, lorsqu'ils ne travaillent pas avec des échantillons aléatoires. Un problème beaucoup plus important.
rolando2

3
@ Mario Votre hypothèse n'est pas vraie! Sur 100 répétitions de l'expérience, nous nous attendons à ce que 95 des IC (pas les moyens) contiennent la moyenne vraie (mais inconnue). L'IC est aléatoire mais la moyenne de la population réelle ne l'est pas.
whuber

6
Cumming et Maillardet (2006) ont publié un article intéressant qui indique que ce ne sont pas 95% des moyens de réplication qui tomberont dans l'IC initial, mais seulement 83,4% (ils appellent cette valeur «pourcentage de capture»). La raison en est qu’il existe deux sources de variabilité: A) la variabilité de la moyenne originale autour muet B) la variabilité de la moyenne de réplication autour mu. La plupart des gens oublient A: le CI d'origine n'est pas nécessairement construit autour mu!
Felix S

2
Les lecteurs intéressés peuvent également vouloir voir ce fil de discussion: Pourquoi un IC à 95% n'implique-t-il pas une chance de 95% de contenir la moyenne?
Gay - Rétablir Monica

Réponses:


26

J'ai trouvé cette expérience de pensée utile lorsque je pensais aux intervalles de confiance. Cela répond également à votre question 3.

Soit et . Considérons deux observations de prenant les valeurs et correspondant aux observations et de , et prenons et . Alors est un intervalle de confiance de 50% pour (puisque l'intervalle comprend si ou , chacun d'eux ayant une probabilité ).Y = X + a - 1XU(0,1)Y=X+a12Yy1y2x1x2Xyl=min(y1,y2)yu=max(y1,y2)[yl,yu]aax1<12<x2x1>12>x214

Toutefois, si alors nous savons que la probabilité que l'intervalle contient est , et non . La subtilité est qu'un intervalle de confiance pour un paramètre signifie que les extrémités de l'intervalle (qui sont des variables aléatoires) sont situées de part et d'autre du paramètre avec la probabilité avant de calculer l'intervalle , pas que la probabilité du paramètre après avoir calculé l’intervalle est compris dans l’intervalle .yuyl>12a112z%z% z%


3
Notez que presque sûrement, d'où l'intervalle contient le paramètre avec probabilité de zéro. En fait, votre argument fonctionne si ce que vous estimez est . Y>a[yl,yu]aθ=a+12
Le

4
Je ne pense pas que ce contre-exemple soit valide, car vous ne connaissez que la probabilité que l'intervalle contienne est un après avoir que . Il est parfaitement raisonnable que la probabilité change après l'acquisition de nouvelles informations. Si tout ce que vous saviez, c’est que l’intervalle correspond à un intervalle de confiance de 50%, la probabilité est toujours de 1/2 (bien qu’il s’agisse d’une probabilité bayésienne et non pas fréquentiste dans la mesure où elle s’applique à un événement particulier qui n’a pas de fréquence à long terme)θyuyl>1/2
Dikran Marsupial le

1
C’est effectivement un bon exemple, mais je suis tout à fait en désaccord avec vos affirmations sur les probabilités de changement d’une manière ou d’une autre avant et après le calcul de l’intervalle de confiance. Cela n’a aucun sens et donne l’impression que le calcul se préoccupe de ce que vous savez et de ce que vous ne connaissez pas. Ce n'est pas !!. Vous avez toujours que est . Vous avez aussi toujours que est . Ce n'est pas une contradiction, l'une est simplement une probabilité inconditionnelle et l'autre est une probabilité conditionnelle. P(a[yl,yu])12P(a[yl,yu]|yuyl>12)1
fgp

2
@fgp, oui, c'est peut-être une formulation médiocre de la part de Taylor qui parle du changement de probabilités. Aucune probabilité ne change. L'argument montre comment il est facile de faire face à des situations démontrant qu'une compréhension erronée des éléments de configuration conduit à des problèmes logiques. Si vous croyez qu'un IC que vous observez a 50% de probabilité d'être correct mais que cela ne peut pas être correct, alors vous comprenez qu'un IC est faux.
Jean le

36

Il y a beaucoup de problèmes concernant les intervalles de confiance, mais concentrons-nous sur les citations. Le problème réside dans les interprétations erronées possibles plutôt que dans la rectitude. Quand les gens disent qu'un "paramètre a une probabilité particulière de" quelque chose, ils pensent que le paramètre est une variable aléatoire. Ce n'est pas le point de vue d'une procédure d'intervalle de confiance (classique), pour laquelle la variable aléatoire est l'intervalle lui-même et le paramètre est déterminé, et non aléatoire, mais inconnu. C'est pourquoi de telles déclarations sont fréquemment attaquées.

Mathématiquement, si on laisse une procédure mappant data à des sous-ensembles de l’espace de paramètre et si (quelle que soit la valeur du paramètre ), l’assertion définit un événement , alors - par définition - il a une probabilité pour toute valeur possible de . Lorsque est une procédure d'intervalle de confiance avec une confiance de alors cette probabilité est supposée avoir un infimum (sur toutes les valeurs de paramètre) detx=(xi)θθt(x)A(x)Prθ(A(x))θt1α1α. (En fonction de ce critère, nous sélectionnons généralement des procédures qui optimisent certaines propriétés supplémentaires, telles que la production d'intervalles de confiance courts ou symétriques, mais c'est une question distincte.) La loi des faibles nombres en grands justifie alors la deuxième citation. Ce n’est cependant pas une définition des intervalles de confiance: c’est simplement une propriété qu’ils possèdent.

Je pense que cette analyse a répondu à la question 1, montre que la prémisse de la question 2 est incorrecte et rend la question 3 sans objet.


3
Merci d'avoir répondu à une excellente question. Puis-je proposer l'analogie suivante pour une discussion plus approfondie? Supposons que je retourne une pièce juste, encore et encore. Alors, . Maintenant, je lance la pièce une fois, mais ne vous montre pas ce que j'ai retourné et je demande: "Quelle est la probabilité que les têtes soient relevées?". comment répondriez-vous a cette question? P(Head)=.50
Wolfgang

3
Une autre façon de l'exprimer: pour les non-bayésiens, les seules «choses» qui peuvent avoir une probabilité sont les événements possibles, c'est-à-dire les résultats futurs d'une expérience aléatoire. Étant donné que le paramètre a une valeur vraie fixe, une fois que vous avez un intervalle avec des valeurs spécifiques, ce n'est plus un événement possible que le paramètre soit inclus ou non dans l'intervalle. Par conséquent, vous pouvez avoir confiance dans le processus qui génère l'intervalle, mais pas dans deux nombres spécifiques.
Caracal

1
@caracal - juste quelques éléments de réflexion, est-ce qu'un "coin flip" est vraiment "aléatoire"? Si vous dites "oui", vous rejetterez alors l'idée selon laquelle le fait qu'une pièce de monnaie apparaisse en tête soit une fonction déterministe (mais compliquée) de nombreuses choses (vent, altitude, force et angle de retournement, poids de la pièce de monnaie, etc.). .) Je pense que cela montre le double standard du "hasard" qui s'applique à la pensée basée sur l'IC. Les données sont fixes mais nous ne sommes pas sûrs de sa valeur (les données ergo sont aléatoires ), tandis que les paramètres sont fixes mais nous ne sommes pas sûrs de sa valeur ( les paramètres ergo ne sont pas aléatoires ).
probabilitéislogique

4
@ Wolfgang Je ne vois pas en quoi votre exemple concerne les intervalles de confiance. Vous ne demandez rien lié à un paramètre de distribution. Votre situation est étroitement liée aux intervalles de prévision. Je pense que toute cette discussion a peut-être un intérêt dans ce contexte, mais elle ne fait pas partie des discussions sur les intervalles de confiance.
whuber

2
@whuber La question de savoir si on peut faire une déclaration de probabilité à propos d'un IC particulier à 95% capturant le paramètre véritablement inconnu est très similaire à celle de savoir si on peut faire une déclaration de probabilité à propos d'un retournement spécifique dont le résultat est encore inconnu. À long terme, 95% des CI captureront le paramètre. À long terme, 50% des retournements sont des têtes. Pouvons-nous dire qu'il y a 95% de chances qu'un IC en particulier capture le paramètre? Pouvons-nous dire qu'il y a 50% de chances que les têtes soient relevées avant de regarder? Je dirais oui aux deux. Mais certaines personnes peuvent être en désaccord.
Wolfgang

19

Je ne qualifierais pas la définition d'IC ​​de fausse, mais il est facile de mal interpréter cette notion, car il existe plusieurs définitions de probabilité. Les CI sont basés sur la définition suivante de probabilité (Frequentist ou ontologique)

(1) probabilité d'une proposition = proportion à long terme de fois où cette proposition est considérée comme vraie, en fonction du processus de génération de données

Ainsi, pour être valide sur le plan conceptuel dans l’utilisation d’un CI, vous devez accepter cette définition de probabilité. Si vous ne le faites pas, alors votre intervalle n'est pas un IC, d'un point de vue théorique.

C'est pourquoi la définition a utilisé le mot proportion et PAS le mot probabilité pour indiquer clairement que la définition de la "fréquence à long terme" est utilisée.

La principale définition alternative de la probabilité (épistémologique ou probabilité comme extension de la logique déductive ou bayésienne) est

(2) probabilité d'une proposition = degré rationnel de conviction que la proposition est vraie, conditionnée à un état de connaissance

Les gens mélangent souvent intuitivement ces deux définitions et utilisent l'interprétation qui convient pour faire appel à leur intuition. Cela peut vous mettre dans toutes sortes de situations confuses (surtout lorsque vous passez d'un paradigme à l'autre).

Le fait que les deux approches aboutissent souvent au même résultat signifie que, dans certains cas, nous avons:

degré rationnel de conviction que la proposition est vraie, conditionnée à un état de connaissance = long terme, proportion de fois où cette proposition est considérée comme vraie, à la condition du processus de génération de données

Le fait est que cela ne tient pas universellement , nous ne pouvons donc pas nous attendre à ce que les deux définitions différentes conduisent toujours aux mêmes résultats. Ainsi, à moins que vous élaboriez la solution bayésienne et que vous trouviez qu'il s'agit du même intervalle, vous ne pouvez pas donner à l'intervalle donné par l'interprétation du CI l'interprétation comme une probabilité de contenir la valeur vraie. Et si vous le faites, l'intervalle n'est pas un intervalle de confiance, mais un intervalle crédible.


2
Je ne vois pas pourquoi la probabilité d'une proposition selon la définition 1 devrait être un nombre rationnel. La proportion à long terme semble se référer à la limite des proportions de temps telles que la proposition est considérée comme vraie. Chaque proportion est un nombre rationnel, mais leur limite pourrait ne pas l'être. (Heureusement, votre parenthèse semble au mieux tangente au reste de votre réponse.)
Le

3
@probability Cette réponse semble nous entraîner sur une tangente de manière peu constructive. L'égalisation de la probabilité et de la proportion est une forme de confusion ontologique, qui revient à assimiler une température au niveau de mercure dans un thermomètre: l'un est une construction théorique et l'autre est un phénomène physique utilisé pour la mesurer. Il en est question à l' adresse stats.stackexchange.com/questions/1525/… .
whuber

@Didier - vous avez raison, en fait, la séquence , qui est des termes rationnels avec limite irrationnelle. J'ai enlevé cette remarque. Merci d'avoir soulevé cette question. xn=r2xn1+xn12r
Probistislogic

6
@whuber - Il est intéressant de soulever ce point, car c’est précisément ce malentendu qui conduit les gens à interpréter les IC de manière erronée. Confondre la probabilité avec le "degré rationnel de croyance" n’est pas conforme au paradigme fréquentiste. C'est ce qui se produit lorsque vous indiquez que les éléments de configuration signifient "probabilité que la valeur réelle soit dans l'intervalle", ce que @dsimcha est en train de faire dans la question.
Probistislogic

1
@probability Merci pour l'explication. J'avais compris votre réponse comme étant en accord avec la définition de "probabilité = proportion". En fait, une relecture proche suggère toujours que c'est ce que vous dites dans le troisième paragraphe, même si votre commentaire décrit maintenant ceci comme un malentendu. Vous voudrez peut-être clarifier ce point.
whuber

6

RA Fisher avait un critère d'utilité des intervalles de confiance: un élément de configuration ne devrait pas admettre de "sous-ensembles identifiables" impliquant un niveau de confiance différent. Dans la plupart des contre-exemples (sinon tous), nous avons des cas où il existe des sous-ensembles identifiables ayant des probabilités de couverture différentes.

Dans ce cas, vous pouvez soit utiliser des intervalles de crédit bayésiens pour spécifier une indication subjective de l'emplacement du paramètre, soit vous pouvez formuler un intervalle de vraisemblance reflétant l'incertitude relative du paramètre, compte tenu des données.

Par exemple, l'intervalle de confiance normal bilatéral pour la moyenne de la population semble être relativement exempt de contradictions. En supposant un échantillonnage d'une population normale avec une donnée donnée, l'IC à 95% n'admet aucun sous-ensemble identifiable qui fournirait plus d'informations sur le paramètre. Cela se voit au fait que la moyenne de l'échantillon constitue une statistique suffisante dans la fonction de vraisemblance - c'est-à-dire que la fonction de vraisemblance est indépendante des valeurs de chaque échantillon une fois que nous connaissons la moyenne de l'échantillon.

La raison pour laquelle nous n’avons aucune confiance subjective dans l’IC symétrique à 95% pour la moyenne normale découle moins de la probabilité de couverture déclarée que du fait que l’IC symétrique de 95% pour la moyenne normale correspond à l’intervalle de "probabilité la plus élevée", c’est-à-dire les valeurs de paramètre dans l'intervalle ont une probabilité plus élevée que toute valeur de paramètre en dehors de l'intervalle. Cependant, comme la probabilité n’est pas une probabilité (au sens de précision à long terme), il s’agit plutôt d’un critère subjectif (tout comme l’utilisation bayésienne de l’antériorité et de la probabilité). En résumé, il y a une infinité d'intervalles pour la moyenne normale qui ont une probabilité de couverture de 95%, mais seul l'IC symétrique a la vraisemblance intuitive que nous attendons d'une estimation d'intervalle.

Par conséquent, le critère de RA Fisher implique que la probabilité de couverture ne doit être assimilée à une confiance subjective que si elle n'admet aucun de ces sous-ensembles identifiables. Si des sous-ensembles sont présents, la probabilité de couverture sera conditionnelle aux valeurs vraies du ou des paramètres décrivant le sous-ensemble. Pour obtenir un intervalle avec le niveau de confiance intuitif, vous devez conditionner l'estiamte d'intervalle sur les statistiques auxiliaires appropriées permettant d'identifier le sous-ensemble. OU, vous pouvez recourir à des modèles de dispersion / mélange, ce qui conduit naturellement à interpréter les paramètres comme des variables aléatoires (statistiques bayésiennes) ou à calculer les probabilités profil / conditionnelles / marginales dans le cadre de vraisemblance. Dans les deux cas, vous avez abandonné tout espoir de trouver une probabilité objectivement vérifiable d’être correcte,

J'espère que cela t'aides.


1
(+1) Une façon de justifier le CI symétrique normal consiste à minimiser la longueur attendue. En fin de compte, cela ne fait que repousser la subjectivité sur le choix de la longueur en tant que fonction de perte dans une procédure de décision; "mauvaise" subjectivité, qui ressemble simplement à une épithète péjorative.
whuber

5

D'un point de vue théorique, les questions 2 et 3 reposent sur l'hypothèse erronée que les définitions sont fausses. Donc, je suis d’accord avec la réponse de @ whuber à cet égard, et la réponse de @ whuber à la question 1 n’exige aucune autre contribution de ma part.

Toutefois, d’un point de vue plus pratique, on peut donner à un intervalle de confiance sa définition intuitive (probabilité de contenir la valeur vraie) lorsqu’il est numériquement identique à un intervalle crédible bayésien basé sur la même information (c’est-à-dire un préalable non informatif).

Mais ceci est quelque peu décourageant pour le très dur anti-bayésien, car pour vérifier les conditions permettant de donner l’interprétation qu’il veut lui donner, il doit élaborer la solution bayésienne, pour laquelle l’interprétation intuitive tient automatiquement!

L'exemple le plus simple est un intervalle de confiance pour la moyenne normale avec une variance connue et un intervalle crédible postérieur .¯ x ± σ Z α / 2 1 - α ¯ x ± σ Z α / 21αx¯±σZα/21αx¯±σZα/2

Je ne suis pas tout à fait sûr des conditions, mais je sais que les éléments suivants sont importants pour l'interprétation intuitive des éléments de configuration:

1) il existe une statistique de pivot, dont la distribution est indépendante des paramètres (existe-t-il des pivots exacts en dehors des distributions normale et khi-carré?)

2) il n’existe aucun paramètre de nuisance (sauf dans le cas d’une statistique pivot, qui est l’un des rares moyens exacts dont on dispose pour gérer les paramètres de nuisance lorsqu’on établit des CI)

3) il existe une statistique suffisante pour le paramètre d’intérêt et l’intervalle de confiance utilise la statistique suffisante

4) la distribution d'échantillonnage de la statistique suffisante et la distribution postérieure présentent une sorte de symétrie entre la statistique suffisante et le paramètre. Dans le cas normal, la distribution d'échantillonnage dans laquelle se trouve la symétrie tandis que .(u|¯x,σ)~N(¯x,σ(x¯|μ,σ)N(μ,σn)(μ|x¯,σ)N(x¯,σn)

Ces conditions sont généralement difficiles à trouver et il est généralement plus rapide de calculer et de comparer l’intervalle bayésien. Un exercice intéressant peut également consister à essayer de répondre à la question "pour quel antécédent mon IC est-il également un intervalle crédible?" Vous découvrirez peut-être certaines hypothèses cachées à propos de votre procédure d'EC en consultant cette version antérieure.


1
(+1) Existe-t-il vraiment une personne "anti-bayésienne"? :-)
whuber

6
@whuber En voici un . Et voici une économétrique qui collabore avec elle à la recherche en philosophie de la statistique.
Cyan

1
Merci! C'est un fil extrêmement intéressant dans la philosophie des probabilités et des statistiques dont je n'étais pas au courant.
whuber

1
Avez-vous mal écrit comme manquant ? x¯±zα/2σnn
Qazwsx

3

C'est une chose qui peut être difficile à comprendre:

  • si en moyenne 95% de tous les intervalles de confiance contiennent le paramètre
  • et j'ai un intervalle de confiance spécifique
  • pourquoi la probabilité que cet intervalle ne contienne pas le paramètre n'est-elle pas également à 95%?

Un intervalle de confiance se rapporte à la procédure d'échantillonnage. Si vous preniez plusieurs échantillons et calculiez un intervalle de confiance de 95% pour chaque échantillon, vous constateriez que 95% de ces intervalles contiennent la moyenne de la population.

Ceci est utile par exemple pour les services qualité industriels. Ces gars-là prélèvent de nombreux échantillons et ils ont maintenant la certitude que la plupart de leurs estimations seront assez proches de la réalité. Ils savent que 95% de leurs estimations sont assez bonnes, mais ils ne peuvent pas en dire autant de chaque estimation spécifique.

Comparez cela à lancer des dés: si vous lancez 600 dés (équitables), combien en lancerez-vous? Votre meilleure estimation est * 600 = 100.16

Cependant, si vous avez jeté UN dé, il est inutile de dire: "Il y a une probabilité de 1/6 ou de 16,6% que j'ai jeté un 6". Pourquoi? Parce que le dé montre soit un 6, soit un autre chiffre. Vous avez lancé un 6 ou pas. La probabilité est donc 1 ou 0. La probabilité ne peut pas être .16

Quand on lui demandait avant le lancer quelle serait la probabilité de lancer un 6 avec UN dé, un Bayésien répondrait " " (selon des informations antérieures: tout le monde sait qu'un dé a 6 côtés et une chance égale tomber sur l’un d’eux), mais un Frequentist dira "Aucune idée" car le fréquentisme est basé uniquement sur les données, et non sur des a priori ou des informations extérieures.16

De même, si vous n'avez qu'un seul échantillon (donc un intervalle de confiance), vous n'avez aucun moyen de dire quelle est la probabilité que la moyenne de la population se situe dans cet intervalle. La moyenne (ou n'importe quel paramètre) y est, ou pas. La probabilité est 1 ou 0.

En outre, il n’est pas correct de dire que les valeurs comprises dans l’intervalle de confiance sont plus susceptibles que celles situées en dehors de cet intervalle. J'ai fait une petite illustration; tout est mesuré en ° C. N'oubliez pas que l'eau gèle à 0 ° C et bout à 100 ° C.

Le cas: dans un lac froid, nous aimerions estimer la température de l’eau qui coule sous la glace. Nous mesurons la température dans 100 endroits. Voici mes données:

  • 0,1 ° C (mesurée dans 49 endroits);
  • 0,2 ° C (également dans 49 endroits);
  • 0 ° C (. Dans 1 emplacement Ce fut l' eau juste sur le point de gel);
  • 95 ° C (à un endroit, il y a une usine qui décharge illégalement de l'eau très chaude dans le lac).
  • Température moyenne: 1,1 ° C;
  • Écart type: 1,5 ° C;
  • 95% -CI: (-0,8 ° C ...... + 3,0 ° C).

Les températures comprises dans cet intervalle de confiance NE SONT certainement PAS plus probables que celles situées en dehors de celui-ci. La température moyenne de l'eau qui coule dans ce lac NE PEUT PAS être plus froide que 0 ° C, sinon ce ne serait pas de l'eau mais de la glace. Une partie de cet intervalle de confiance (à savoir la section de -0,8 à 0) a en fait une probabilité de 0% de contenir le paramètre vrai.

En conclusion: les intervalles de confiance sont un concept fréquentiste et sont donc basés sur l'idée d'échantillons répétés. Si de nombreux chercheurs prélèvent des échantillons de ce lac et que tous ces chercheurs calculent des intervalles de confiance, 95% de ces intervalles contiendront le vrai paramètre. Mais pour un seul intervalle de confiance, il est impossible de dire quelle est la probabilité qu'il contienne le vrai paramètre.


1
Ne confondez pas le fait que la statistique fréquentiste ne mesure pas la croyance avec une personne fréquentiste ayant des croyances antérieures et les mettant à jour. La différence n'est pas de savoir si le fréquentiste est un idiot sans connaissances en dehors des données, mais si les statistiques fréquentistes fournissent des mesures directes des états de croyance. Le fréquentiste doit mettre à jour ses convictions en se basant sur des tests, des CI, etc. Sinon, tout son système ne fonctionne pas car tout dépend des décisions prises.
Jean le

2

OK, je réalise que lorsque vous calculez un intervalle de confiance de 95% pour un paramètre à l'aide de méthodes fréquentistes classiques, cela ne signifie pas qu'il existe une probabilité de 95% que le paramètre se situe dans cet intervalle. Et pourtant ... lorsque vous abordez le problème d'un point de vue bayésien et que vous calculez un intervalle crédible à 95% pour le paramètre, vous obtenez (en supposant un préalable non informatif) exactement le même intervalle que celui obtenu avec l'approche classique. Donc, si j'utilise des statistiques classiques pour calculer l'intervalle de confiance à 95% de (par exemple) la moyenne d'un ensemble de données, il est vrai qu'il existe une probabilité de 95% que le paramètre se situe dans cet intervalle.


5
Que vous obteniez le même résultat en utilisant des intervalles de confiance fréquentistes et des intervalles crédibles bayésiens dépend du problème, et en particulier de la distribution antérieure utilisée dans l'approche bayésienne. Il est également important en mathématiques et en sciences que, lorsque vous avez raison, vous avez raison pour la bonne raison!
Dikran Marsupial le

4
Si vous "utilisez des statistiques classiques pour calculer l'intervalle de confiance de 95% pour [un paramètre]", alors, si vous raisonnez de manière cohérente, il est inutile de faire référence à une "probabilité que le paramètre se situe dans cet intervalle". Au moment où vous mentionnez cette probabilité, vous avez changé votre modèle statistique de la situation. Dans le nouveau modèle, où le paramètre est aléatoire, il est incorrect de calculer un CI à l'aide de méthodes fréquentistes. Obtenir la bonne réponse de cette façon dans certaines situations est intéressant mais ne justifie pas la confusion conceptuelle qui la sous-tend.
whuber

4
@whuber - votre prémisse "... si vous raisonnez de manière cohérente ..." a une conséquence du bon vieux théorème de Cox. Il dit que si vous raisonnez de manière constante, votre solution doit être mathématiquement équivalente à une solution bayésienne. Donc, étant donné cette prémisse, un IC sera nécessairement équivalent à un intervalle crédible, et son interprétation en tant que probabilité sera valide. Et dans Bayes, ce n'est pas le paramètre qui a une distribution, c'est l'incertitude sur ce paramètre qui a une distribution.
Probistislogic

2
... suite ... Donc, on peut jouer au jeu stupide de je suis un bayésien "Prob paramètre est dans l'intervalle", je suis un fréquentiste "prob que intervalle couvre paramètre", je suis un Bayésien ..., je suis un fréquentiste, ..., je suis un bayésien ..., je suis un fréquentiste, ..... tout le temps que les chiffres du calcul réel ne changent jamais
probabiliste le

2

Vous parlez de l' intervalle de confiance Frequentist . La définition (notez qu'aucune de vos 2 citations n'est une définition! Juste des déclarations, qui sont toutes les deux correctes) est la suivante:

Si j'avais répété cette expérience un grand nombre de fois, étant donné ce modèle ajusté avec ces valeurs de paramètre , dans 95% des expériences, la valeur estimée d'un paramètre serait comprise dans cet intervalle.

Vous avez donc un modèle (construit à partir de vos données observées) et ses paramètres estimés. Ensuite, si vous générez des ensembles de données hypothétiques en fonction de ce modèle et de ces paramètres, les paramètres estimés tomberont dans l’intervalle de confiance.

Donc, en fait, cette approche fréquentiste considère le modèle et les paramètres estimés comme figés, et traite vos données comme incertaines - en tant qu’échantillon aléatoire de nombreuses autres données possibles.

C’est vraiment difficile à interpréter et cela est souvent utilisé comme argument pour les statistiques bayésiennes ( ce qui, je pense, peut parfois être un peu discutable . Les statistiques bayésiennes, en revanche, prennent vos données comme fixes et traitent les paramètres comme incertains. Les intervalles crédibles bayésiens sont: alors, en fait, intuitif, comme on pouvait s’y attendre: les intervalles bayésiens dignes de foi sont des intervalles où, à 95%, se trouve la valeur réelle du paramètre.

Mais dans la pratique, beaucoup de gens interprètent les intervalles de confiance fréquentistes de la même manière que les intervalles crédibles bayésiens et de nombreux statisticiens ne considèrent pas cela comme un gros problème - bien qu'ils le sachent tous, ce n'est pas exact à 100%. De même, dans la pratique, les intervalles confianceiste / bayésien / crédibles fréquentistes et les intervalles crédibles ne seront pas très différents lors de l'utilisation de priors bayésiens non informatifs .


-1 Votre "définition" semble être incorrecte, du moins en une lecture. Le CI est construit pour couvrir le paramètre réel avec la probabilité . Elle n'est pas conditionnée par un modèle ou une méthode particulière d'adaptation des paramètres. Cependant, je me trompe peut-être dans la définition: je prends "ce modèle ajusté avec cette valeur de paramètre" pour faire référence à votre estimation actuelle du paramètre. Si ce n'est pas ce que vous vouliez, peut-être pourriez-vous clarifier ce point? 1α1α
whuber

@whuber, OK, je suppose, mais si vous dites que ma définition est fausse, merci de publier votre définition complète de ce qu'est l'IC.
Curieux

J'ai clarifié mon commentaire, Tomas, car il me semble que je pourrais peut-être lire votre définition d'une manière que vous n'aviez pas l'intention de faire. Kiefer, Introduction to Statistical Inference , écrit "[L] e résultat de l'expérience est ... [S] uppose que la procédure est utilisée pour estimer et la valeur réelle de est ... [la] quantité .. .Le nombre est appelé le coefficient de confiance de la procédure ... est appelé unXt=[L,U]ϕ(θ)θθ0γt(θ0)=Prθ0{L(X)ϕ(θ0)U(X)}γ¯t=infθΩγt(θ)ttIntervalle de confiance. "
whuber

@ Whuber, votre définition est vraiment incompréhensible pour moi et j'ai peur aussi pour la plupart des gens :) Et oui, je voulais dire l'estimation actuelle, car les fréquentistes obtiennent l'estimation des paramètres telle qu'elle est donnée et les données comme aléatoires, le contraire de bayésien.
Curieux

3
Je pense que le problème principal de votre définition de Curious est "... la valeur estimée d'un paramètre tomberait dans l'intervalle". Ce n'est pas un paramètre estimé, mais un paramètre fixe inconnu; et il ne tombe pas dans l'intervalle, mais l'intervalle se déplace et 95% du temps capture le paramètre.
Jean

2

Supposons que nous sommes dans une situation simple. Vous avez un paramètre inconnu et un estimateur de qui a une imprécision autour de 1 (informellement). Vous pensez (de manière informelle) que devrait être dans plus souvent.θTθθ[T1;T+1]

Dans une expérience réelle, vous observez .T=12

Il est naturel de poser la question "Étant donné ce que je vois ( ), quelle est la probabilité ?". Mathématiquement: . Tout le monde pose naturellement cette question. La théorie des intervalles de confiance devrait logiquement répondre à cette question. Mais ce n'est pas le cas.T=12θ[11;13]P(θ[11;13]|T=12)

Les statistiques bayésiennes répondent à cette question. En statistique bayésienne, vous pouvez vraiment calculer . Mais vous devez prendre un avant qui est une distribution pour avant de faire l'expérience et l' observation . Par exemple :P(θ[11;13]|T=12)θT

  • Supposons que ait un uniforme de distribution antérieur leθ[0;30]
  • faites cette expérience, trouvezT=12
  • Appliquer la formule de Bayes:P(θ[11;13]|T=12)=0.94

Mais dans les statistiques fréquentistes, il n’existe pas de prieur et il n’existe donc rien de semblable à . Au lieu de cela, les statisticiens disent quelque chose comme ceci: "Quoi que soit , la probabilité que soit de ". Mathématiquement: "P(θ...|T...)θθ[T1;T+1]0.95θ,P(θ[T1;T+1]|θ)=0.95

Alors :

  • Bayésien: pourT = 12P(θ[T1;T+1]|T)=0.94T=12
  • Frequentist:θ,P(θ[T1;T+1]|θ)=0.95

La déclaration bayésienne est plus naturelle. Le plus souvent, la déclaration fréquentiste est mal interprétée spontanément comme la déclaration bayésienne (par tout cerveau humain normal qui n'a pas pratiqué la statistique depuis des années). Et honnêtement, beaucoup de statistiques ne rendent pas ce point très clair.

Et pratiquement?

Dans de nombreuses situations habituelles, le fait est que les probabilités obtenues par les approches fréquentiste et bayésienne sont très proches. Donc, confondre la déclaration fréquentiste pour la déclaration bayésienne n’a que peu de conséquences. Mais "philosophiquement", c'est très différent.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.