Dans les tests d'hypothèses fréquentistes, p-value est la probabilité d'un résultat aussi extrême (ou plus) que le résultat observé, sous l'hypothèse que l'hypothèse nulle est vraie.
Quelqu'un peut-il, s’il vous plaît, donner une explication succincte de la raison pour laquelle il n’est pas judicieux d’enseigner aux élèves qu’une valeur p est la probabilité (leurs résultats sont dus à une chance [aléatoire]). D'après ce que je comprends, une p-value est le prob (obtenir des données plus extrêmes …
Selon des reportages, le CERN annoncera demain que le boson de Higgs a été détecté de manière expérimentale avec des preuves de 5 . Selon cet article:σσ\sigma 5 équivaut à 99,99994% des chances que les données détectées par les détecteurs CMS et ATLAS ne soient pas que du bruit aléatoire …
Je sais qu'il existe de nombreux matériaux expliquant la valeur p. Cependant, le concept n'est pas facile à saisir fermement sans clarification supplémentaire. Voici la définition de p-value de Wikipedia: La valeur p est la probabilité d'obtenir une statistique de test au moins aussi extrême que celle qui a été …
Puisqu'on peut calculer des intervalles de confiance pour les valeurs p et que l'opposé de l'estimation d'intervalle est l'estimation ponctuelle: la valeur p est-elle une estimation ponctuelle?
Je proposerai cette question au moyen d'un exemple. Supposons que j'ai un ensemble de données, comme l'ensemble de données sur les prix des logements de Boston, dans lequel j'ai des variables continues et catégoriques. Ici, nous avons une variable "qualité", de 1 à 10, et le prix de vente. Je …
J'ai lu des informations sur les valeurs de , les taux d'erreur de type 1, les niveaux de signification, les calculs de puissance, la taille des effets et le débat Fisher vs Neyman-Pearson. Cela m'a laissé un peu dépassé. Je m'excuse pour le mur de texte, mais j'ai estimé qu'il …
J'ai eu une discussion avec un statisticien en 2009, où il a déclaré que la valeur exacte d'une valeur p n'était pas pertinente: la seule chose importante est de savoir si elle est significative ou non. C'est-à-dire qu'un résultat ne peut pas être plus significatif qu'un autre; vos échantillons, par …
Johansson (2011) dans « Hail the impossible: p-values, evidence, and vraisemblability » (voici également un lien vers le journal ) déclare que des valeurs de plus faibles sont souvent considérées comme des preuves plus solides contre le nul. Johansson implique que les gens considéreraient les preuves contre le zéro comme …
Parfois, dans les rapports, j'inclus un avertissement concernant les valeurs de p et d'autres statistiques inférentielles que j'ai fournies. Je dis que puisque l'échantillon n'était pas aléatoire, de telles statistiques ne s'appliqueraient pas strictement. Ma formulation spécifique est généralement donnée dans une note de bas de page: "Alors que, strictement …
J'essaie d'écrire une série de billets de blog sur les valeurs p et j'ai pensé qu'il serait intéressant de revenir là où tout a commencé - qui semble être le document de Pearson de 1900. Si vous êtes familier avec ce papier, vous vous souviendrez qu'il couvre les tests d'adéquation. …
J'ai essayé de comprendre comment le taux de fausses découvertes (FDR) devrait éclairer les conclusions de chaque chercheur. Par exemple, si votre étude manque de puissance, devriez-vous actualiser vos résultats même s'ils sont significatifs à α=.05α=.05\alpha = .05 ? Remarque: je parle du FDR dans le contexte de l'examen des …
Tout en dérivant formellement l'intervalle de confiance d'une estimation, je me suis retrouvé avec une formule qui ressemble de très près à la façon dont la valeur de est calculée.ppp D'où la question: sont-ils formellement équivalents? Ie rejette une hypothèse avec une valeur critique équivalente à n'appartenant pas à l'intervalle …
Un seul test statistique peut prouver que l'hypothèse nulle (H0) est fausse et donc l'hypothèse alternative (H1) est vraie. Mais il ne peut pas être utilisé pour montrer que H0 est vrai car le fait de ne pas rejeter H0 ne signifie pas que H0 est vrai. Mais supposons que …
Je viens de tomber sur cet article , qui décrit comment calculer la répétabilité (aka fiabilité, aka corrélation intraclasse) d'une mesure via la modélisation d'effets mixtes. Le code R serait: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute …
J'utilise le package "boot" pour calculer une valeur p approximative de démarrage à 2 côtés mais le résultat est trop éloigné de la valeur p de l'utilisation de t.test. Je ne peux pas comprendre ce que j'ai fait de mal dans mon code R. Quelqu'un peut-il me donner un indice …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.