J'essaie de résoudre la question suivante:
Le joueur A a remporté 17 des 25 matchs tandis que le joueur B a gagné 8 des 20 - y a-t-il une différence significative entre les deux ratios?
La chose à faire dans R qui me vient à l'esprit est la suivante:
> prop.test(c(17,8),c(25,20),correct=FALSE)
2-sample test for equality of proportions without continuity correction
data: c(17, 8) out of c(25, 20)
X-squared = 3.528, df = 1, p-value = 0.06034
alternative hypothesis: two.sided
95 percent confidence interval:
-0.002016956 0.562016956
sample estimates:
prop 1 prop 2
0.68 0.40
Ce test indique donc que la différence n'est pas significative au niveau de confiance de 95%.
Parce que nous savons que prop.test()
c'est seulement en utilisant une approximation, je veux rendre les choses plus exactes en utilisant un test binomial exact - et je le fais dans les deux sens:
> binom.test(x=17,n=25,p=8/20)
Exact binomial test
data: 17 and 25
number of successes = 17, number of trials = 25, p-value = 0.006693
alternative hypothesis: true probability of success is not equal to 0.4
95 percent confidence interval:
0.4649993 0.8505046
sample estimates:
probability of success
0.68
> binom.test(x=8,n=20,p=17/25)
Exact binomial test
data: 8 and 20
number of successes = 8, number of trials = 20, p-value = 0.01377
alternative hypothesis: true probability of success is not equal to 0.68
95 percent confidence interval:
0.1911901 0.6394574
sample estimates:
probability of success
0.4
Maintenant, c'est étrange, non? Les valeurs de p sont totalement différentes à chaque fois! Dans les deux cas, les résultats sont maintenant (très) significatifs, mais les valeurs de p semblent sauter plutôt au hasard.
Mes questions
- Pourquoi les valeurs p que différent à chaque fois?
- Comment effectuer correctement un test binomial à deux proportions exactes dans R?
prop.test
vschisq.test
), le même concept sous-jacent est dans cette question . Vous exécutez trois tests différents avec différentes "hypothèses nulles" dans chacun de vos trois exemples.