Bien que le titre de la question semble trivial, je voudrais expliquer qu'il n'est pas si trivial dans le sens où il est différent de la question d'appliquer le même test statistique dans des ensembles de données similaires pour tester une hypothèse nulle totale (méta-analyse, par exemple en utilisant la méthode de Fisher pour combiner les valeurs de p). Ce que je recherche, c'est une méthode (si elle existe et si la question est valable en termes statistiques) qui combinerait les valeurs de p de deux tests statistiques différents (par exemple un test t et un test u, même si l'un est paramétrique et l'autre non), appliqués pour comparer les centres de deux échantillonnages de deux populations. Jusqu'à présent, j'ai beaucoup cherché sur le Web sans réponse claire. La meilleure réponse que j'ai pu trouver était basée sur les concepts de la théorie des jeux de David Bickel ( http://arxiv.org/pdf/1111.6174.pdf ).
Une solution très simpliste serait un système de vote. Supposons que j'ai deux vecteurs d'observations et et que je souhaite appliquer plusieurs statistiques de type t (test t, test u, même ANOVA 1 voie) pour tester l'hypothèse que les centres (moyennes, médianes, etc.) des deux distributions sous-jacentes sont égaux à l'hypothèse qu'ils ne le sont pas, à un niveau de signification de 0,05. Supposons que je lance 5 tests. Serait-il légitime de dire qu'il existe des preuves suffisantes pour rejeter la distribution nulle si j'ai une valeur de p <0,05 dans 3 tests sur 5?
Une autre solution serait-elle d'utiliser la loi de la probabilité totale ou c'est complètement faux? Par exemple, supposons que est l'événement où la distribution nulle est rejetée. Ensuite, en utilisant 3 tests, , , (ce qui signifie que ), une valeur possible pour serait-elle , où est la probabilité que la distribution nulle soit rejetée sous le test .
Je m'excuse si la réponse est évidente ou la question trop stupide