Le plus gros problème que je vois, c’est qu’aucune statistique de test n’est dérivée. -value (avec toutes les critiques formulées par les statisticiens bayésiens contre elle) pour une valeur d'une statistique de test est défini comme (en supposant que la valeur NULL est rejetée pour des valeurs plus grandes de , comme ce serait le cas avec les statistiques , par exemple). Si vous devez prendre une décision plus importante, vous pouvez augmenter la valeur critique et pousser la région de rejet plus haut. Effectivement, c’est ce que font plusieurs corrections de test comme Bonferroni, vous invitant à utiliser un seuil beaucoup plus bas pourt t p r o b [ t ≥ t | H 0 ] T χ 2 p 0 , une / 36 , 2 / 36 , ...ptTProb[T≥t|H0]Tχ2p-valeurs. Au lieu de cela, le statisticien fréquentiste est coincé ici avec les tests de tailles sur la grille de .0,1/36,2/36,…
Bien sûr, cette approche "fréquentiste" n’est pas scientifique, car le résultat sera difficilement reproductible. Une fois que Sun passe en supernova, il reste supernova. Le détecteur doit donc continuer à dire "Oui" encore et encore. Cependant, une exécution répétée de cette machine ne donnera probablement pas le résultat "Oui". Ceci est reconnu dans les domaines qui veulent se présenter comme rigoureux et essaient de reproduire leurs résultats expérimentaux ... ce qui, autant que je sache, se produit avec une probabilité comprise entre 5% (la publication du document original était une pure erreur de type I) et quelque part autour de 30-40% dans certains domaines médicaux. Les méta-analystes peuvent vous renseigner avec de meilleurs chiffres, c’est tout le buzz qui me traverse de temps en temps à travers la statistique.
Un autre problème du point de vue fréquentiste «approprié» est que le dé est le test le moins puissant, avec une puissance = niveau de signification (sinon inférieur; une puissance de 2,7% pour un niveau de signification de 5% n’a rien à se vanter). La théorie de Neyman-Pearson pour les tests t est agonisante pour démontrer qu'il s'agit d'un UMPT, et beaucoup de théorie statistique de haut niveau (que je comprends à peine, je dois l'admettre) est consacrée à dériver les courbes de puissance et à trouver les conditions dans test est le plus puissant dans une classe donnée. (Crédits: @Dikran Marsupial a mentionné la question du pouvoir dans l'un des commentaires.)
Je ne sais pas si cela vous dérange, mais le statisticien bayésien est montré ici comme le gars qui ne connaît pas les mathématiques et a un problème de jeu. Un statisticien bayésien compétent postulerait le prieur, discuterait de son degré d'objectivité, dériverait le postérieur et démontrerait tout ce qu'il avait appris des données. Rien de tout cela n'a été fait, le processus bayésien a donc été simplifié à l'extrême, tout comme le processus fréquentiste.
Cette situation illustre le dépistage classique du cancer (et je suis certain que les biostatisticiens peuvent le décrire mieux que moi). Lors du dépistage d'une maladie rare avec un instrument imparfait, la plupart des positifs se révèlent être des faux positifs. Les statisticiens avisés le savent et savent mieux faire un suivi des dépisteurs peu coûteux et sales avec des biopsies plus coûteuses et plus précises.