Benjamini & Hochberg définissent le taux de fausses découvertes de la même manière que moi, comme la fraction des tests positifs qui sont des faux positifs. Donc, si vous utilisez leur procédure pour des comparaisons multiples, vous contrôlez correctement le FDR. Il convient de noter, cependant, qu'il existe de nombreuses variantes de la méthode BH. Les séminaires de Benjamini à Berkeley sont sur Youtube, et valent bien la peine d'être regardés:
Je ne sais pas pourquoi @amoeba dit "Ceci est formulé trop fortement et peut en fait être trompeur". Je serais intéressé de savoir pourquoi il / elle pense cela. L'argument le plus convaincant provient des tests t simulés (section 6). Cela imite ce que presque tout le monde fait dans la pratique et cela montre que si vous observez P proche de 0,047 et prétendez avoir fait une découverte, vous vous tromperez au moins 26% du temps. Qu'est-ce qui peut mal tourner?
Bien sûr, je ne devrais pas décrire cela au minimum. C'est ce que vous obtenez si vous supposez qu'il y a 50% de chances qu'il y ait un effet réel. Bien sûr, si vous supposez que la plupart de vos hypothèses sont correctes à l'avance, vous pouvez obtenir un FDR inférieur à 26%, mais pouvez-vous imaginer l'hilarité qui saluerait une affirmation selon laquelle vous aviez fait une découverte sur la base de l'hypothèse que vous étiez sûr à 90% à l'avance que votre conclusion serait vraie. 26% est le FDR minimum étant donné que ce n'est pas une base raisonnable pour l'inférence de supposer une probabilité antérieure supérieure à 0,5.
Étant donné que les intuitions ne tiennent souvent pas debout lors des tests, il se pourrait bien qu'il n'y ait que 10% de chances qu'une hypothèse particulière soit vraie, et dans ce cas, le FDR serait de 76% désastreux.
Il est vrai que tout cela dépend de l'hypothèse nulle étant qu'il y a une différence nulle (le soi-disant point nul). D'autres choix peuvent donner des résultats différents. Mais le point nul est ce que presque tout le monde utilise dans la vie réelle (même si le peut ne pas en être conscient). De plus, le point nul me semble être une chose tout à fait appropriée à utiliser. On objecte parfois que les vraies différences ne sont jamais exactement nulles. Je ne suis pas d'accord. Nous voulons savoir si nos résultats ne se distinguent pas du cas où les deux groupes reçoivent des traitements identiques, de sorte que la vraie différence est exactement nulle. Si nous décidons que les données ne sont pas compatibles avec cette vue, nous continuons à estimer la taille de l'effet. et à ce moment-là, nous jugeons séparément si l'effet, bien que réel, est suffisamment important pour être important dans la pratique.Le blog de Deborah Mayo .
@amoeba Merci pour votre réponse.
Ce que la discussion sur le blog de Mayo montre est principalement que Mayo n'est pas d'accord avec moi, même si elle n'a pas clairement expliqué pourquoi, du moins pour moi). Stephen Senn souligne correctement que vous pouvez obtenir une réponse différente si vous postulez une distribution antérieure différente. Cela ne me semble intéressant que pour les bayésiens subjectifs.
Cela n'a certainement rien à voir avec la pratique quotidienne qui suppose toujours un point nul. Et comme je l'ai expliqué, cela me semble être une chose parfaitement sensée à faire.
De nombreux statisticiens professionnels sont parvenus aux mêmes conclusions que moi. Essayez Sellke & Berger et Valen Johnson (références dans mon article). Il n'y a rien de très controversé (ou très original) dans mes affirmations.
Votre autre point, à propos de l'hypothèse d'un 0,5 antérieur, ne me semble pas du tout être une hypothèse. Comme je l'ai expliqué ci-dessus, tout ce qui dépasse 0,5 serait inacceptable dans la pratique. Et tout ce qui est inférieur à 0,5 rend le taux de fausses découvertes encore plus élevé (par exemple, 76% si le précédent est 0,1). Par conséquent, il est parfaitement raisonnable de dire que 26% est le taux minimum de fausses découvertes auquel vous pouvez vous attendre si vous observez P = 0,047 dans une seule expérience.
J'ai réfléchi davantage à cette question. Ma définition du FDR est la même que celle de Benjamini - la fraction des tests positifs qui sont faux. Mais elle s'applique à un problème bien différent, l'interprétation d'un seul test. Avec le recul, il aurait peut-être été préférable de choisir un terme différent.
Dans le cas d'un seul test, B&H laisse la valeur P inchangée, donc il ne dit rien sur le taux de fausses découvertes dans le sens où j'utilise le terme.
es bien sûr, vous avez raison. Benjamini & Hochberg, et d'autres personnes qui travaillent sur des comparaisons multiples, visent uniquement à corriger le taux d'erreur de type 1. Ils se retrouvent donc avec une valeur P «correcte». Il est soumis aux mêmes problèmes que toute autre valeur P. Dans mon dernier article, j'ai changé le nom de FDR en False Positive Risk (FPR) afin d'éviter ce malentendu.
Nous avons également écrit une application Web pour effectuer certains calculs (après avoir remarqué que peu de gens téléchargent les scripts R que nous fournissons). C'est à https://davidcolquhoun.shinyapps.io/3-calcs-final/ Toutes les opinions à ce sujet sont les bienvenues (veuillez d'abord lire l'onglet Notes).
PS La calculatrice Web a maintenant une nouvelle (permanente, j'espère) sur http://fpr-calc.ucl.ac.uk/
Shiny.io est facile à utiliser, mais très cher si quelqu'un utilise réellement l'application :-(
Je suis revenu à cette discussion, maintenant que mon deuxième article sur le sujet est sur le point de paraître dans Royal Society Open Science. C'est à https://www.biorxiv.org/content/early/2017/08/07/144337
Je me rends compte que la plus grande erreur que j'ai commise dans le premier article a été d'utiliser le terme "taux de fausses découvertes (FDR)". Dans le nouvel article, je précise que je ne dis rien sur le problème des comparaisons multiples. Je ne traite que de la question de savoir comment interpréter la valeur P observée dans un seul test non biaisé.
Dans la dernière version, je fais référence à la probabilité que le résultat soit le risque de faux positif (FPR) plutôt que le FDR, dans l'espoir de réduire la confusion. Je préconise également l'approche bayésienne inversée - préciser la probabilité antérieure qui serait nécessaire pour assurer un FPR de, disons, 5%. Si vous observez P = 0,05, cela revient à 0,87. En d'autres termes, vous devriez être presque (87%) sûr qu'il y avait un effet réel avant de faire l'expérience pour atteindre un FPR de 5% (ce que la plupart des gens croient encore, à tort, p = 0,05 signifie).