Que disent les intervalles de confiance sur la précision (le cas échéant)?


31

Morey et al (2015) soutiennent que les intervalles de confiance sont trompeurs et qu'il existe de multiples biais liés à leur compréhension. Entre autres, ils décrivent l'erreur de précision comme suit:

L'erreur de précision
La largeur d'un intervalle de confiance indique la précision de nos connaissances sur le paramètre. Des intervalles de confiance étroits montrent des connaissances précises, tandis que des erreurs de confiance larges montrent des connaissances imprécises.

Il n'y a pas de lien nécessaire entre la précision d'une estimation et la taille d'un intervalle de confiance. Une façon de voir cela est d'imaginer que deux chercheurs - un chercheur principal et un doctorant - analysent les données de participants d'une expérience. En tant qu'exercice au profit du doctorant, le chercheur principal décide de diviser au hasard les participants en deux ensembles de afin qu'ils puissent chacun analyser séparément la moitié de l'ensemble de données. Lors d'une réunion ultérieure, les deux partagent entre eux les intervalles de confiance de Student pour la moyenne. L' IC à doctorant est de et l' IC à du chercheur principal est de .25 t 95 % 52 ± 2 95 % 53 ± 45025t95%52±295%53±4

Le chercheur principal note que leurs résultats sont globalement cohérents et qu'ils pourraient utiliser la moyenne également pondérée de leurs deux estimations ponctuelles respectives, , comme estimation globale de la vraie moyenne.52.5

La doctorante soutient cependant que leurs deux moyennes ne devraient pas être pondérées de manière égale: elle note que son IC est deux fois moins large et soutient que son estimation est plus précise et devrait donc être pondérée plus fortement. Son conseiller note que cela ne peut pas être correct, car l'estimation d'une pondération inégale des deux moyennes serait différente de l'estimation de l'analyse de l'ensemble de données complet, qui doit être . L'erreur du doctorant est de supposer que les IC indiquent directement la précision post-données.52.5

L'exemple ci-dessus semble trompeur. Si nous divisons au hasard un échantillon en deux, en deux échantillons, nous nous attendrions à ce que les moyennes des échantillons et les erreurs standard soient proches. Dans ce cas, il ne devrait pas y avoir de différence entre l'utilisation de la moyenne pondérée (par exemple pondérée par des erreurs inverses) et l'utilisation de la moyenne arithmétique simple. Cependant, si les estimations diffèrent et que les erreurs dans l'un des échantillons sont sensiblement plus importantes, cela pourrait suggérer des "problèmes" avec cet échantillon.

Évidemment, dans l'exemple ci-dessus, les tailles d'échantillon sont les mêmes, donc "relier" les données en prenant la moyenne des moyennes équivaut à prendre la moyenne de l'échantillon entier. Le problème est que l'exemple entier suit la logique mal définie selon laquelle l'échantillon est d'abord divisé en parties, puis à nouveau joint pour l'estimation finale.

L'exemple peut être reformulé pour conduire exactement à la conclusion opposée:

Le chercheur et l'étudiant ont décidé de diviser leur ensemble de données en deux moitiés et de les analyser de manière indépendante. Par la suite, ils ont comparé leurs estimations et il est apparu que l'échantillon signifie qu'ils ont calculé qu'ils étaient très différents, de plus l'erreur-type de l'estimation de l'élève était beaucoup plus grande. L'élève avait peur que cela puisse suggérer des problèmes avec la précision de son estimation, mais le chercheur a laissé entendre qu'il n'y a aucun lien entre les intervalles de confiance et la précision, de sorte que les deux estimations sont également dignes de confiance et peuvent publier n'importe laquelle d'entre elles, choisies au hasard, comme estimation finale.

En termes plus formels, les intervalles de confiance «standard», comme le de Student , sont basés sur des erreurst

x¯±c×SE(x)

où est une constante. Dans ce cas, ils sont directement liés à la précision, n'est-ce pas ...?c

Ma question est donc la suivante:
l'erreur de précision est-elle vraiment une erreur? Que disent les intervalles de confiance de la précision?


Morey, R., Hoekstra, R., Rouder, J., Lee, M. et Wagenmakers, E.-J. (2015). L'illusion de placer la confiance dans les intervalles de confiance. Bulletin et revue psychonomiques, 1–21. https://learnbayes.org/papers/confidenceIntervalsFallacy/


2
Je suppose que si la précision est définie comme l'inverse de la variance, alors la largeur de ces IC ne reflète qu'une estimation de la précision. Tout comme la largeur d'un intervalle crédible bayésien pour la moyenne refléterait l'incertitude quant à la précision.
Scortchi - Réintégrer Monica

@Scortchi alors c'est une autre façon de dire que les méthodes fréquentistes ne sont pas fiables en général ..?
Tim

7
Je dirais que c'est un hareng rouge. Je viens de simuler 10 000 expériences, chacune tirant 50 échantillons d'une distribution normale avec une moyenne de 52,5 et SD 7,5 (de sorte que le SE des sous-échantillons de taille 25 soit à peu près , donnant des IC de ). J'ai ensuite divisé ces échantillons en deux et vérifié à quelle fréquence les IC différaient de 2 ou plus. Cela s'est produit dans seulement 6 cas sur 10 000. Quiconque observe des IC aussi différents soupçonnerait de beaucoup quelque chose d'avoir rompu la sélection de sous-échantillons. ±37.5/25=5±3
S.Kolassa - Rétablir Monica

@StephanKolassa J'ai fait exactement la même simulation qui a conduit exactement aux mêmes conclusions - c'est ainsi que la question est apparue :)
Tim

2
@Tim: Je ne sais pas vraiment où ils essaient d'arriver: si la vraie précision de l'estimation de la moyenne est conçue en fonction d'une valeur de paramètre inconnue, commune aux deux sous-échantillons, alors je je pense que personne ne voudrait admettre que la différence de largeur de ces deux IC ne reflète donc pas une différence dans la précision des estimations (à moins de douter de la procédure de sous-échantillonnage). La prise en compte des propriétés de couverture des IC sous condition du coefficient de variation observé aurait pu être une meilleure tactique.
Scortchi - Réintégrer Monica

Réponses:


16

Dans l'article, nous démontrons en fait l'erreur de précision de plusieurs façons. Celui que vous demandez - le premier dans l'article - L'exemple est destiné à démontrer qu'un "CI = précision" simpliste est faux. Cela ne veut pas dire que tout fréquentiste, bayésien ou vraisemblable compétent serait confus.

Voici une autre façon de voir ce qui se passe: si on nous disait simplement les CI, nous ne serions toujours pas en mesure de combiner les informations contenues dans les échantillons; nous aurions besoin de connaître , et à partir de là, nous pourrions décomposer les CI en et , et ainsi combiner correctement les deux échantillons. La raison pour laquelle nous devons le faire est que les informations du CI sont marginales par rapport au paramètre de nuisance. Il faut tenir compte du fait que les deux échantillons contiennent des informations sur le même paramètre de nuisance. Cela implique de calculer les deux valeurs de , de les combiner pour obtenir une estimation globale de , puis de calculer un nouveau CI.ˉ x s 2 s 2 σ 2Nx¯s2s2σ2

Quant aux autres démonstrations de l'erreur de précision, voir

  • les CI multiples dans la section Welch (1939) (le sous-marin), dont l'un inclut le CI "trivial" mentionné par @dsaxton ci-dessus. Dans cet exemple, l'IC optimal ne suit pas la largeur de la probabilité, et il existe plusieurs autres exemples d'IC ​​qui ne le font pas non plus.
  • Le fait que les CI - même les «bons» CI peuvent être vides, indiquant «faussement» une précision infinie

La réponse à l'énigme est que la «précision», du moins dans la façon dont les défenseurs de CI y pensent (une évaluation post-expérimentale de la «proximité» d'une estimation avec un paramètre) n'est tout simplement pas une caractéristique que les intervalles de confiance ont en général et ils n'étaient pas censés le faire. Des procédures de confiance particulières pourraient ... ou non.

Voir également la discussion ici: http://andrewgelman.com/2011/08/25/why_it_doesnt_m/#comment-61591


7
(+1) Super d'entendre l'auteur réel! Je suis d'accord que les CI ont plusieurs problèmes philosophiques, tout comme TOUTES les formes d'inférence (juste des problèmes différents ) ... J'aime la façon dont vous avez souligné que c'est la procédure de confiance spécifique que vous devez considérer, pas seulement que c'est un CI à un tel et un tel niveau.

4
(+1) Merci pour votre réponse! Je suis d'accord avec les arguments que vous déclarez dans votre document selon lesquels les CI n'ont rien à dire sur la précision, mais appeler cela une erreur donne l'impression que vous indiquez qu'ils ne disent rien sur la précision - et ce n'est pas la même chose ... De plus: à votre avis, c'est le "sophisme de précision", un problème d'analyse de la vie réelle ..? Je suis d'accord pour dire que les CI sont mal interprétés, mais dans ce cas, je n'en suis pas si sûr ...
Tim

2
L'impact «réel» est difficile à quantifier, en particulier si l'on peut parler d'impact dans un scénario d'analyse spécifique ou à travers un domaine. Pour calculer simplement un CI sur un moyen gaussien, l'erreur n'est pas trop dangereuse. Mais considérons la liste des citations à la p117 (le paragraphe commence "A quelle fréquence la procédure de confiance de Steiger ..."). Les intervalles dans ces articles publiés sont probablement "trop" étroits. L'erreur a d'autres impacts: un manque de minutie sur les générateurs de nouvelles procédures CI (vérifier tout papier avec un nouveau CI), la réticence des analystes à s'éloigner des hypothèses gaussiennes en cas de besoin, et d'autres.
richarddmorey

Je suis fasciné par ces paranthèses. Qu'est-ce que ce "sous-marin"?
Superbe

1
Mais si la largeur de la fonction de vraisemblance pour conditionnelle à la plage d'échantillonnage est censée refléter vraiment la précision dans l'exemple sous-marin, alors pourquoi la largeur de la fonction de vraisemblance pour la moyenne conditionnelle à la variance de l'échantillon ne devrait-elle pas vraiment refléter la précision dans cet exemple. Supposons que quatre bulles du sous-marin ont été observées et divisées au hasard en deux ensembles de deux ...θ
Scortchi - Rétablir Monica

13

Tout d'abord, limitons-nous aux procédures CI qui ne produisent que des intervalles avec des largeurs finies strictement positives (pour éviter les cas pathologiques).

Dans ce cas, la relation entre la précision et la largeur de CI peut être théoriquement démontrée. Faites une estimation de la moyenne (lorsqu'elle existe). Si votre IC pour la moyenne est très étroit, alors vous avez deux interprétations: soit vous avez eu de la malchance et votre échantillon était trop serré (a priori 5% de chances que cela se produise), soit votre intervalle couvre la vraie moyenne (95% a priori). Bien sûr, l'IC observé peut être l'un de ces deux, mais , nous avons configuré notre calcul de sorte que ce dernier soit beaucoup plus susceptible de se produire (c'est-à-dire 95% de chances a priori) ... par conséquent, nous avons un degré élevé de confianceque notre intervalle couvre la moyenne, parce que nous mettons les choses en place de manière probabiliste, il en est ainsi. Ainsi, un IC à 95% n'est pas un intervalle de probabilité (comme un intervalle crédible bayésien), mais plutôt un «conseiller de confiance» ... quelqu'un qui, statistiquement, a raison 95% du temps, donc nous faisons confiance à leurs réponses même si toute réponse particulière pourrait très bien être fausse.

Dans 95% des cas où elle couvre le paramètre réel, la largeur vous indique quelque chose sur la plage de valeurs plausibles compte tenu des données (c'est-à-dire, comment vous pouvez bien délimiter la vraie valeur), donc elle agit comme une mesure de précision . Dans les 5% des cas où ce n'est pas le cas, l'IC est trompeur (car l'échantillon est trompeur).

Donc, la largeur de l'IC à 95% indique-t-elle la précision ... Je dirais qu'il y a 95% de chances que cela le fasse (à condition que votre largeur de l'IC soit finie positive) ;-)

Qu'est-ce qu'un CI sensible?

En réponse au message de l'auteur original, j'ai révisé ma réponse pour (a) prendre en compte que l'exemple de "l'échantillon fractionné" avait un but très spécifique, et (b) pour fournir un peu plus de contexte comme demandé par le commentateur:

Dans un monde idéal (fréquentiste), toutes les distributions d'échantillonnage admettraient une statistique pivot que nous pourrions utiliser pour obtenir des intervalles de confiance exacts. Qu'est-ce qui est si génial avec les statistiques pivots? Leur distribution peut être dérivée sans connaître la valeur réelle du paramètre à estimer! Dans ces beaux cas, nous avons une distribution exacte de notre statistique d'échantillon par rapport au vrai paramètre (bien qu'il ne soit pas gaussien) à propos de ce paramètre.

En termes plus succincts: nous connaissons la distribution des erreurs (ou une transformation de celle-ci).

C'est cette qualité de certains estimateurs qui nous permet de former des intervalles de confiance sensibles. Ces intervalles ne satisfont pas seulement à leurs définitions ... ils le font du fait qu'ils sont dérivés de la distribution réelle de l'erreur d'estimation.

La distribution gaussienne et la statistique Z associée est l'exemple canonique de l'utilisation d'une quantité pivot pour développer un CI exact pour la moyenne. Il existe des exemples plus ésotériques, mais c'est généralement celui qui motive la "théorie des grands échantillons", qui est essentiellement une tentative d'appliquer la théorie derrière les IC gaussiens à des distributions qui n'admettent pas une vraie quantité pivot. Dans ces cas, vous en apprendrez sur les quantités approximativement pivots, ou asymptotiquement pivots (dans la taille de l'échantillon) ou les intervalles de confiance "approximatifs" ... ceux-ci sont basés sur la théorie de la vraisemblance - en particulier, le fait que la distribution d'erreur pour de nombreux MLE s'approche d'une distribution normale.

Une autre approche pour générer des IC sensibles consiste à «inverser» un test d'hypothèse. L'idée est qu'un "bon" test (par exemple, UMP) se traduira par un bon CI (lire: étroit) pour un taux d'erreur de type I donné. Celles-ci n'ont pas tendance à donner une couverture exacte, mais fournissent une couverture inférieure (note: la définition réelle d'un X% -CI dit seulement qu'il doit couvrir le vrai paramètre au moins X% du temps).

L'utilisation de tests d'hypothèse ne nécessite pas directement une quantité pivot ou une distribution d'erreur - sa sensibilité est dérivée de la sensibilité du test sous-jacent. Par exemple, si nous avions un test dont la région de rejet avait une longueur de 0 à 5% du temps et une longueur infinie de 95% du temps, nous serions de retour là où nous en étions avec les CI - mais il est évident que ce test n'est pas conditionnelle aux données, et ne fournira donc aucune information sur le paramètre sous-jacent testé.

Cette idée plus large - qu'une estimation de la précision devrait être conditionnée par les données, remonte à Fischer et à l'idée de statistiques auxiliaires. Vous pouvez être sûr que si le résultat de votre test ou procédure CI n'est PAS conditionné par les données (c'est-à-dire que son comportement conditionnel est le même que son comportement inconditionnel), alors vous avez une méthode douteuse à portée de main.


2
Ce serait formidable si vous pouviez développer ce que vous avez ajouté dans une "Note". C'est, je pense, le nœud de toute la discussion: on peut concevoir des procédures fréquentistes très étranges mais valides pour construire des CI sous lesquels la largeur des CI n'a aucun rapport avec une quelconque précision. On peut donc argumenter, comme Morey et al. faire, que les CI sont trompés en principe. Je suis d'accord avec vous que les procédures CI couramment utilisées sont plus raisonnables que cela, mais il faut être clair sur ce qui les rend telles.
amibe dit Réintégrer Monica

@amoeba J'ai ajouté quelques explications sur la raison pour laquelle tous les CI ne sont pas créés égaux ... l'idée principale est l'ancillarité, la seconde est le rôle d'une distribution d'erreurs (ou une approximation)

Merci pour la mise à jour. Une chose que je ne trouve toujours pas très claire dans votre réponse, c'est que dans le premier paragraphe, vous ne dites rien sur la largeur du CI; vous parlez simplement qu'il contient ou ne contient pas le vrai paramètre de population. Tout y est correct même dans les cas "pathologiques". Ensuite, vous dites que oui, la largeur indique la précision, mais vous n'avez fourni aucun argument pour cela (à ce stade). Dans la discussion qui suit, vous l'expliquez plus cependant.
amibe dit Réintégrer Monica

@amoeba Je suppose que mon message pourrait faire un peu plus de mise en forme. La logique de base est la suivante (en supposant que nous utilisons une procédure CI "raisonnable" comme je le souligne): il y a a priori 95% de chances que l'intervalle contienne le vrai paramètre. Après avoir collecté des données, nous avons notre intervalle réel (largeur finie, non nulle). SI elle contient le vrai paramètre, la largeur exprime la plage de valeurs plausibles qu'elle pourrait être, d'où la largeur limite la plage du paramètre. CEPENDANT, dans les 5% des cas où l'intervalle ne contient pas la valeur, alors l'intervalle est trompeur.

@amoeba a mis à jour le post pour mieux souligner le lien entre la largeur et la précision du CI.

8

Je pense que l'erreur de précision est une vraie erreur, mais pas nécessairement celle dont nous devrions nous préoccuper. Ce n'est même pas si difficile de montrer que c'est une erreur. Prenons un exemple extrême comme celui-ci: nous avons un échantillon partir d'une distribution normale et souhaitons construire un intervalle de confiance sur , mais à la place en utilisant les données réelles, nous considérons que notre intervalle de confiance est soit ou basé sur le retournement d'une pièce biaisée. En utilisant le bon biais, nous pouvons obtenir n'importe quel niveau de confiance que nous aimons, mais évidemment notre "estimation" d'intervalle n'a aucune précision, même si nous nous retrouvons avec un intervalle de largeur nulle.( μ , σ 2 ) μ ( - , ){x1,x2,,xn}(μ,σ2)μ(,){0}

La raison pour laquelle je ne pense pas que nous devrions nous préoccuper de cette erreur apparente est que s'il est vrai qu'il n'y a pas de lien nécessaire entre la largeur d'un intervalle de confiance et la précision, il existe un lien presque universel entre les erreurs standard et la précision, et dans dans la plupart des cas, la largeur d'un intervalle de confiance est proportionnelle à une erreur standard.

Je ne crois pas non plus que l'exemple de l'auteur soit très bon. Chaque fois que nous effectuons une analyse de données, nous ne pouvons qu'estimer la précision, de sorte que les deux individus tireront des conclusions différentes. Mais si nous avons des connaissances privilégiées, comme savoir que les deux échantillons proviennent de la même distribution, nous ne devons évidemment pas l'ignorer. Il est clair que nous devrions regrouper les données et utiliser l'estimation résultante de comme meilleure estimation. Il me semble que cet exemple est comme celui ci-dessus où nous n'assimilons la largeur de l'intervalle de confiance à la précision que si nous nous sommes permis d'arrêter de penser.σ


Bon point sur les CI aléatoires infinis ... montrent certainement que la confiance est un concept différent de la précision. J'aurais probablement dû mettre en garde ma réponse en disant que je suppose un IC basé sur la vraisemblance, où la largeur est liée à la courbure de la vraisemblance logarithmique, qui est une approximation de l'erreur standard ... votre message souligne qu'il existe des IC qui atteignent techniquement couverture mais d'une manière très contre-intuitive.

Un problème connexe (bien que très intéressant) est celui des sous-ensembles pertinents pour un CI ... par exemple, si vous conditionnez sur des statistiques auxiliaires, votre couverture CI peut changer (un cas typique est que la couverture conditionnelle d'un intervalle t changements en fonction de la variabilité de votre échantillon). Voici le lien vers l'article: jstor.org/stable/2242024?seq=1#page_scan_tab_contents

@Bey Il y a un autre exemple moins extrême de cet article impliquant un sous-marin: webfiles.uci.edu/mdlee/fundamentalError.pdf . C'est intéressant, mais encore une fois, il semble qu'il s'agisse d'une interprétation qu'aucune personne intelligente ne ferait.
dsaxton

D'accord .... ne peut pas laisser le bon sens à la porte avec des statistiques ... même dans le Machine Learning (un peu impropre)

1
@richarddmorey: D'accord, je vois. Ce n'était alors qu'une formulation malheureuse! Je ne l'ai pas sorti du contexte exprès; Honnêtement, j'ai lu cette phrase comme un résumé et une généralisation à toute situation (sans réaliser que "dans cet exemple" était supposé dans cette phrase). Pensez à laisser un commentaire de clarification dans cet autre fil avec mon accusation (qui a déjà reçu quelques votes positifs).
amibe dit Réintégrer Monica

4

Je pense que la distinction démontrable entre «intervalles de confiance» et «précision» (voir la réponse de @dsaxton) est importante parce que cette distinction met en évidence des problèmes dans l'utilisation courante des deux termes.

Citation de Wikipedia :

La précision d'un système de mesure, liée à la reproductibilité et la répétabilité, est le degré auquel les mesures répétées dans des conditions inchangées montrent les mêmes résultats.

On pourrait donc soutenir que les intervalles de confiance fréquentistes représentent un type de précision d'un schéma de mesure . Si l'on répète le même schéma, l'IC à 95% calculé pour chaque répétition contiendra la seule vraie valeur du paramètre dans 95% des répétitions.

Cependant, ce n'est pas ce que beaucoup de gens attendent d'une mesure pratique de précision. Ils veulent savoir à quel point la valeur mesurée est à la vraie valeur . Les intervalles de confiance fréquentistes ne fournissent pas strictement cette mesure de précision. Les régions crédibles bayésiennes le font.

Une partie de la confusion est que, dans des exemples pratiques, les intervalles de confiance fréquentistes et les régions crédibles bayésiennes "se chevaucheront plus ou moins" . L'échantillonnage à partir d'une distribution normale, comme dans certains commentaires sur le PO, en est un exemple. Cela peut également être le cas dans la pratique pour certains des types d'analyses plus larges que @Bey avait en tête, basés sur des approximations des erreurs standard dans les processus qui ont des distributions normales dans la limite.

Si vous savez que vous vous trouvez dans une telle situation , il ne peut y avoir aucun danger pratique à interpréter un IC à 95% particulier, à partir d'une seule mise en œuvre d'un schéma de mesure, comme ayant une probabilité de 95% de contenir la vraie valeur. Cette interprétation des intervalles de confiance, cependant, ne provient pas des statistiques fréquentistes, pour lesquelles la vraie valeur se situe ou non dans cet intervalle particulier.

Si les intervalles de confiance et les régions crédibles diffèrent sensiblement, cette interprétation de type bayésien des intervalles de confiance fréquentistes peut être trompeuse ou erronée, comme le démontrent l'article lié ci-dessus et la littérature antérieure qui y est référencée. Oui, le «bon sens» pourrait aider à éviter de telles interprétations erronées, mais d'après mon expérience, le «bon sens» n'est pas si courant.

D'autres pages CrossValidated contiennent beaucoup plus d'informations sur les intervalles de confiance et les différences entre les intervalles de confiance et les régions crédibles . Les liens de ces pages particulières sont également très informatifs.


C'est un bon point ... Je pense que la réflexion la plus proche de l'interprétation courante de la "précision" ressemble plus à une erreur RMS. Une estimation non biaisée mais très variable n'est pas considérée comme meilleure qu'un estimateur à faible variabilité mais fortement biaisé ... les deux ne peuvent pas être utilisés pour donner une estimation proche de la valeur réelle.

+1, mais je ne suis pas sûr de partager votre point de vue pessimiste sur le "bon sens". Il y a une grande citation de Jeffreys au sujet de « bon sens » dans les statistiques fréquentistes: I have in fact been struck repeatedly in my own work, after being led on general principles to the solution of a problem, to find that Fisher had already grasped the essentials by some brilliant piece of common sense.
amibe dit Réintégrer Monica

@amoeba considère l'affirmation de Laplace selon laquelle "la théorie des probabilités n'est rien d'autre que du bon sens réduit au calcul." Les efforts consacrés depuis lors à la théorie des probabilités montrent au moins que les implications du bon sens ne sont pas toujours immédiatement évidentes.
EdM

@amoeba: Fisher a rejeté les CI et a identifié Fisher comme freq-ist. est trompeur. Sa logique d'intervalles (fiduciaux) était similaire à obj. Bayes, et il identifie la probabilité avec une incertitude rationnelle. Il dit ceci: "Il est parfois affirmé que la méthode fiduciaire conduit généralement aux mêmes résultats que la méthode des [IC]. Il est difficile de comprendre comment cela peut être ainsi, car il a été fermement établi que la méthode de la confiance les intervalles ne conduisent pas à des énoncés de probabilité sur les paramètres du monde réel, alors que l'argument fiduciaire existe à cet effet. " (Fisher, 1959)
richarddmorey

@richard, Merci pour la clarification. Fisher est connu pour avoir dit des choses contradictoires tout au long de sa longue carrière et avoir changé d'avis plusieurs fois. Je ne connais pas vraiment sa théorie fiduciaire et je ne peux donc pas en parler. Mon hypothèse inconsciente était que Jeffreys dans cette citation faisait référence à la «période fréquentiste» de Fisher, mais je n'ai aucune preuve pour cela. D'après mon expérience (limitée!), Personne n'utilise jamais l'inférence fiduciale. Personne. Déjà. Alors que les techniques fréquentistes sont utilisées tout le temps et beaucoup retournent à Fisher. D'où l'association qui existe dans mon esprit.
amibe dit Réintégrer Monica

1

@Bey l'a. Il n'y a aucun lien nécessaire entre les partitions et les performances, ni le prix et la qualité, ni l'odeur et le goût. Pourtant, l'un informe généralement de l'autre.

On peut prouver par induction qu'on ne peut pas faire un quiz pop. Après un examen attentif, cela signifie que l'on ne peut garantir que le quiz est une surprise. Pourtant, la plupart du temps, ce sera le cas.

Il semble que Morey et al montrent qu'il existe des cas où la largeur n'est pas informative. Bien que cela soit suffisant pour affirmer "Il n'y a pas de lien nécessaire entre la précision d'une estimation et la taille d'un intervalle de confiance", il ne suffit pas de conclure davantage que les IC ne contiennent généralement aucune information sur la précision. Simplement qu'ils ne sont pas garantis de le faire.

(Points insuffisants pour la réponse de + @ Bey.)

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.