Je réalise que c'est pédant et banal, mais en tant que chercheur dans un domaine autre que la statistique, avec une éducation formelle limitée en statistique, je me demande toujours si j'écris correctement "p-value". Plus précisément: Le "p" est-il censé être capitalisé? Le "p" est-il supposé être en italique? (Ou …
Supposons que j'ai un échantillon à partir de la distribution conjointe de et . Comment tester l'hypothèse selon laquelle et sont indépendants ?( Xn, Yn) , n = 1 .. N(Xn,Yn),n=1..N(X_n,Y_n), n=1..NY X YXXXYYYXXXYYY Aucune hypothèse n'est faite sur les lois de distribution conjointe ou marginale de et (la normalité …
Un article publié ( pdf ) contient ces 2 phrases: De plus, les fausses déclarations peuvent être causées par l'application de règles incorrectes ou par une connaissance insuffisante du test statistique. Par exemple, l'df totale dans un ANOVA peut être considéré comme le df d'erreur dans le rapport d'un test, …
Imaginez que vous deviez faire un rapport sur le nombre de candidats qui passent chaque année un test donné. Il semble assez difficile de déduire le pourcentage de succès observé, par exemple, sur une population plus large en raison de la spécificité de la population cible. Vous pouvez donc considérer …
Je venais de lire cet article sur le facteur Bayes pour un problème totalement sans rapport lorsque je suis tombé sur ce passage Les tests d’hypothèses avec des facteurs Bayes sont plus robustes que les tests d’hypothèses fréquentistes, dans la mesure où la forme bayésienne évite les biais de sélection …
J'ai terminé l'analyse des données et obtenu des "résultats statistiquement significatifs", ce qui correspond à mon hypothèse. Cependant, un étudiant en statistiques m'a dit que c'était une conclusion prématurée. Pourquoi? Y a-t-il autre chose à inclure dans mon rapport?
Je me demande si cela fait une différence d'interprétation si seules les variables dépendantes, indépendantes et dépendantes, ou uniquement les variables indépendantes sont transformées par un journal. Considérons le cas de log(DV) = Intercept + B1*IV + Error Je peux interpréter l'IV comme l'augmentation en pourcentage, mais comment cela change-t-il …
Ma question principale est de savoir comment interpréter la sortie (coefficients, F, P) lors d’une analyse de variance de type I (séquentielle)? Mon problème de recherche spécifique est un peu plus complexe, je vais donc décomposer mon exemple en plusieurs parties. Premièrement, si je suis intéressé par l’effet de la …
Il existe de nombreuses façons de mesurer la similarité des deux distributions de probabilité. Parmi les méthodes qui sont populaires (dans différents cercles) figurent: la distance de Kolmogorov: la distance supérieure entre les fonctions de distribution; la distance de Kantorovich-Rubinstein: la différence maximale entre les attentes par rapport aux deux …
Les tests statistiques traditionnels, tels que le test t à deux échantillons, visent à éliminer l'hypothèse selon laquelle il n'y a pas de différence entre une fonction de deux échantillons indépendants. Ensuite, nous choisissons un niveau de confiance et disons que si la différence de moyennes dépasse 95%, nous pouvons …
J'ai récemment appris la méthode de Fisher pour combiner les valeurs p. Ceci est basé sur le fait que p-value sous le null suit une distribution uniforme, et que qui, à mon avis, est un génie. Mais ma question est pourquoi aller de cette manière alambiquée? et pourquoi pas (qu'est-ce …
J'ai du mal à comprendre quel est vraiment le problème des comparaisons multiples . Avec une simple analogie, on dit qu'une personne qui prendra de nombreuses décisions commettra de nombreuses erreurs. On applique donc une précaution très prudente, comme la correction de Bonferroni, de manière à rendre probable que cette …
Cela semble être un problème fondamental, mais je viens de me rendre compte que je ne sais pas comment tester l’égalité des coefficients de deux régressions différentes. Quelqu'un peut-il nous éclairer? Plus formellement, supposons que j’ai exécuté les deux régressions suivantes: et où fait référence à la matrice de de …
Je connais des tests de normalité, mais comment puis-je tester "Poisson-ness"? J'ai un échantillon d'environ 1 000 entiers non négatifs, dont je soupçonne qu'ils sont tirés d'une distribution de Poisson, et j'aimerais le tester.
Je ne cherche pas une méthode plug and play comme BEST in R, mais plutôt une explication mathématique de certaines méthodes bayésiennes que je peux utiliser pour tester la différence entre la moyenne de deux échantillons.
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.