Quelqu'un pourrait-il expliquer pourquoi Richard McElreath dit que le test exact de Fisher est rarement utilisé de manière appropriée dans son excellent livre d'introduction bayésienne ( Statistical Rethinking )?
Pour référence, le contexte est ci-dessous:
Pourquoi les tests ne sont-ils pas suffisants pour une recherche innovante? Les procédures classiques des statistiques d'introduction ont tendance à être inflexibles et fragiles. Par inflexible, je veux dire qu'ils ont des moyens très limités de s'adapter à des contextes de recherche uniques. Par fragile, je veux dire qu'ils échouent de manière imprévisible lorsqu'ils sont appliqués à de nouveaux contextes. Cela est important, car aux frontières de la plupart des sciences, il n'est presque jamais clair quelle procédure est appropriée. Aucun des golems traditionnels n'a été évalué dans de nouveaux contextes de recherche, et il peut donc être difficile d'en choisir un puis de comprendre comment il se comporte.Un bon exemple est le test exact de Fisher, qui s'applique (exactement) à un contexte empirique extrêmement étroit, mais est régulièrement utilisé lorsque le nombre de cellules est faible. J'ai personnellement lu des centaines d'utilisations du test exact de Fisher dans des revues scientifiques, mais en dehors de son utilisation originale par Fisher, je ne l'ai jamais vu utilisé correctement. Même une procédure comme la régression linéaire ordinaire, qui est assez flexible à bien des égards, pouvant encoder une grande diversité d'hypothèses intéressantes, est parfois fragile. Par exemple, s'il y a une erreur de mesure importante sur les variables de prédiction, la procédure peut échouer de manière spectaculaire. Mais plus important encore, il est presque toujours possible de faire mieux que la régression linéaire ordinaire, en grande partie à cause d'un phénomène connu sous le nom de sur-ajustement.