J'ai eu une discussion avec un statisticien en 2009, où il a déclaré que la valeur exacte d'une valeur p n'était pas pertinente: la seule chose importante est de savoir si elle est significative ou non. C'est-à-dire qu'un résultat ne peut pas être plus significatif qu'un autre; vos échantillons, par exemple, proviennent de la même population ou non.
J'ai quelques scrupules à cela, mais je peux peut-être comprendre l'idéologie:
Le seuil de 5% est arbitraire, c'est-à-dire que p = 0,051 n'est pas significatif et que p = 0,049 est, ne devrait pas vraiment changer la conclusion de votre observation ou expérience, malgré un résultat significatif et l'autre non significatif.
La raison pour laquelle je soulève cette question maintenant est que j'étudie pour une maîtrise en bioinformatique, et après avoir parlé à des gens dans le domaine, il semble y avoir une volonté déterminée d'obtenir une valeur p exacte pour chaque ensemble de statistiques qu'ils font. Par exemple, s'ils «atteignent» une valeur de p <1,9 × 10 -12 , ils veulent démontrer à quel point leur résultat est significatif et que ce résultat est SUPER informatif. Ce problème est illustré par des questions telles que: pourquoi ne puis-je pas obtenir une valeur de p inférieure à 2,2e-16? , où ils veulent enregistrer une valeur qui indique que, par hasard seul, ce serait BEAUCOUP moins de 1 sur mille milliards. Mais je vois peu de différence dans la démonstration que ce résultat se produirait moins de 1 sur mille milliards contre 1 sur un milliard.
Je peux alors comprendre que p <0,01 montre qu'il y a moins de 1% de chances que cela se produise, tandis que p <0,001 indique qu'un résultat comme celui-ci est encore plus improbable que la valeur p susmentionnée, mais si vos conclusions tirées sont complètement différent? Après tout, ce sont deux valeurs p significatives. La seule façon dont je peux concevoir de vouloir enregistrer la valeur de p exacte est pendant une correction de Bonferroni où le seuil change en raison du nombre de comparaisons effectuées, diminuant ainsi l'erreur de type I. Mais même encore, pourquoi voudriez-vous afficher une valeur de p inférieure de 12 ordres de grandeur à votre seuil?
Et l'application de la correction de Bonferroni en elle-même n'est-elle pas aussi légèrement arbitraire? En ce sens qu'au départ, la correction est considérée comme très conservatrice, et il existe donc d'autres corrections que l'on peut choisir pour accéder au niveau de signification que l'observateur pourrait utiliser pour ses comparaisons multiples. Mais à cause de cela, ce n'est pas le moment où quelque chose devient sensiblement variable en fonction des statistiques que le chercheur veut utiliser. Les statistiques devraient-elles être si ouvertes à l'interprétation?
En conclusion, les statistiques ne devraient-elles pas être moins subjectives (bien que j'imagine que la nécessité qu'elles soient subjectives est la conséquence d'un système multivarié), mais en fin de compte, je veux quelques éclaircissements: quelque chose peut-il être plus significatif qu'autre chose? Et p <0,001 suffira-t-il pour essayer d'enregistrer la valeur de p exacte?