Quel est le problème avec la synthèse de toutes les valeurs individuelles ?p
Comme @whuber et @Glen_b avancent dans les commentaires, la méthode de Fisher consiste essentiellement à multiplier toutes les valeurs individuelles , et multiplier les probabilités est une chose plus naturelle que de les ajouter.p
On peut encore les additionner. En fait, cela a été suggéré par Edgington (1972), une méthode additive permettant de combiner les valeurs de probabilité d'expériences indépendantes (sous le mur de paiement), et est parfois appelée méthode d'Edgington. Le document de 1972 conclut en affirmant que
La méthode additive s’avère plus puissante que la méthode multiplicative, ayant une plus grande probabilité que la méthode multiplicative de donner des résultats significatifs lorsqu’il ya réellement des effets de traitement.
mais étant donné que la méthode reste relativement inconnue, je soupçonne que c'était au moins une simplification excessive. Par exemple, un aperçu récent de Cousins (2008). La bibliographie annotée de certains articles sur la combinaison des significations ou des valeurs p ne fait aucune mention de la méthode d'Edgington et il semble que ce terme n'ait jamais été mentionné dans CrossValidated.
Il est facile de trouver différentes façons de combiner les valeurs (j’en ai déjà une moi-même et demandé pourquoi elle n’est jamais utilisée: méthode de Z-score de Stouffer's: et si on additionne au lieu de ? ), et quelle est la meilleure méthode est en grande partie une question empirique. Veuillez consulter la réponse de @ whuber pour une comparaison empirique de la puissance statistique de deux méthodes différentes dans une situation spécifique; il y a un gagnant clair.z 2 zpz2z
La réponse à la question générale sur les raisons pour lesquelles on utilise une méthode "alambiquée" est qu’on peut gagner du pouvoir.
Zaykin et al. (2002) La méthode du produit tronqué pour la combinaison des valeurs p effectue certaines simulations et inclut la méthode d'Edgington dans la comparaison, mais je ne suis pas sûr des conclusions.
Une façon de visualiser toutes ces méthodes consiste à dessiner des régions de rejet pour , comme l'a fait @Elvis dans sa belle réponse (+1). Voici une autre figure qui inclut explicitement la méthode d'Edgington tirée de ce qui semble être une affiche. Combinaison non paramétrique (2013) pour l'analyse de l'imagerie multimodale :n=2
Cela dit, je pense qu’il reste encore à savoir pourquoi la méthode d’Edgington serait (souvent?) Sous-optimale, de sorte qu’elle est obscure.
Une des raisons de l’obscurité est peut-être qu’elle ne correspond pas très bien à notre intuition: pour , si (ou supérieur), quelle que soit la valeur de , la valeur null combinée ne sera pas rejetée à , c'est-à-dire même si, par exemple, .p 1 = 0,4 p 2 α = 0,05 p 2 = 0,00000001n=2p1=0.4p2α=0.05p2=0.00000001
Plus généralement, la somme des valeurs ne distingue guère de très petits nombres tels que de , mais la différence entre ces probabilités est en réalité énorme.p = 0,001 p = 0,00000001pp=0.001p=0.00000001
Mise à jour. Voici ce que Hedges et Olkin écrivent à propos de la méthode d'Edgintgon (après avoir passé en revue d'autres méthodes pour combiner des valeurs ) dans leurs méthodes statistiques de méta-analyse (1985), soulignent les suivantes:p
Edgington (1972a, b) a proposé une procédure d'essais combinés très différente. Edgington a proposé de combiner -values en prenant la somme et a donné une méthode fastidieuse mais simple pour obtenir des niveaux de signification pour . Edgington (1972b) donne une large approximation des niveaux de signification deBien qu’il s’agisse d’une procédure monotone et donc admissible, la méthode d’Edgington est généralement considérée comme une procédure médiocre puisqu’une grande valeur peut écraser beaucoup de petites valeurs qui composent la statistique. Cependant, il n’ya pratiquement pas eu d’enquêtes numériques sur cette procédure.S = p 1 + ⋯ + p k , S S pp
S=p1+⋯+pk,
SSp