Je ne comprends toujours pas ce que votre superviseur voulait dire par Hommel-Hochberg en voyant que je ne peux pas trouver une telle collaboration, mais je suppose que cela ne fait aucun mal de mettre des informations utiles sur plusieurs procédures de test.
Introduction. Correction de Bonferroni
Tout d'abord, si vous ne savez rien sur les procédures de test multiples, vous devriez commencer par lire la correction de Bonferroni . C'est super facile à comprendre et vous donnera une bonne base de départ. Tout ce que fait Bonferroni, c'est d'ajuster la valeur de l'intérêt en la divisant par n (nombre total d'hypothèses alternatives). Vous finirez donc par rejeter tout H i ayantαnHje
pje< αn
Cela maintiendra le taux d'erreur de la famille en dessous de . Pour vous donner une idée de la façon dont cela fonctionne, imaginez que vous avez 20 fausses hypothèses alternatives et que vous testez à un niveau de signification α = 0,05 . Dans ces conditions, la probabilité de rejeter à tort au moins une hypothèse nulle (erreur de type I) est donnée parαα = 0,05
P( type I ) = 1 - P( Pas de type I ) = 1 - ( 1 - 0,05 )20= 1 - 0,36 = 0,64
Donc, même si vous avez 20 fausses alternatives, il y a 64% de chances que vous préfériez l'une d'entre elles par rapport à la valeur nulle. L'utilisation de la correction de Bonferroni, cependant, réduit cela à
P= 1 - ( 1 - 0,0520)20= 1 - 0,95 = 0,05
ω = α / nω
Hochberg
Hochberg (1988) présente une procédure progressive. Il y en a d'autres, certains encore plus récents, que vous pourriez également examiner, comme Holm-Bonferoni ou Benjamini-Hochberg (1995) . Le Hochberg original, cependant, celui qui vous intéresse fonctionne comme ceci:
- P( 1 ) , P( 2 ) , . . . , P( n )H( 1 ) , . . . , H( n )
- H( k )P( k ) ≤ αn + 1 - kk = 1 , . . . , n
Comme vous pouvez le voir, contrairement à la correction de Bonferroni, la méthode progressive de Hochberg compare chaque valeur p à un nombre différent. Les valeurs de p plus petites sont comparées à des nombres inférieurs et les valeurs de p plus élevées sont comparées à des nombres plus élevés. C'est la "correction" que vous recherchez.
Notez que la méthode Holm que j'ai liée ci-dessus est également référencée dans l'article de Hochberg, vous pouvez donc également vérifier celle-ci - elles sont très similaires. Holt's btw, c'est en fait une procédure de démantèlement. Vous pouvez comprendre la différence vous-même, j'en suis sûr. Simes (1986) est un autre article assez important sur Hochberg et (ensuite) sur la référence à Hommel . Vous devriez vraiment vérifier celui-ci également pour mieux comprendre les deux méthodes.
Hommel
La méthode de Hommel est plus puissante que Hochberg mais est en quelque sorte plus difficile à calculer et à envelopper la tête. L'explication la plus courte et la plus simple que j'ai pu trouver était dans Multiple Hypothesis Testing (1995) (grande revue de procédures de test multiples btw) et ça se passe comme ceci:
j
pn - j + k> k αj
k = 1 , . . . , j
jHjepje≤ αjjje1n
L'article original, sur lequel vous devriez vraiment vous pencher pour une compréhension plus approfondie est Hommel (1988) . Notez qu'il existe différentes hypothèses pour chacune de ces méthodes, différentes différences entre elles et différentes capacités pour chaque méthode. Vous devriez vraiment étudier les articles pour mieux comprendre le sujet.
Suppléments
Les méthodes plus récentes que vous pourriez étudier sont White (2000) (utilise une méthode d'amorçage et, contrairement à la «correction» alpha, elle offre une nouvelle façon de calculer la valeur de p) et pour une version étendue de White's, Wolf et Romano (2003) . Ce sont des méthodes légèrement différentes, donc elles peuvent ne pas être pertinentes pour vous, mais elles sont assez puissantes pour tester plusieurs modèles par rapport aux mêmes données (hypothèse nulle).
Désolé si certains de mes textes étaient un peu hors sujet. J'ai abordé ce sujet récemment et j'aime écrire sur le sujet. J'espère que cela vous sera utile. Faites-moi savoir si vous trouvez réellement une méthode Hommel-Hochberg comme je n'ai pas pu.