J'ai trois groupes de données, chacun avec une distribution binomiale (c'est-à-dire que chaque groupe a des éléments qui réussissent ou échouent). Je n'ai pas de probabilité de réussite prévue, mais je ne peux me fier qu'au taux de réussite de chacun comme approximation du taux de réussite réel. J'ai seulement trouvé cette question , qui est proche mais ne semble pas traiter exactement avec ce scénario.
Pour simplifier le test, disons simplement que j'ai 2 groupes (3 peuvent être étendus à partir de ce scénario de base).
- Essais du groupe 1: = 2455
- Essais du groupe 2: = 2730
- Succès du groupe 1: = 1556
- Succès du groupe 2: = 1671
Je n'ai pas de probabilité de réussite attendue, seulement ce que je sais des échantillons. Donc, mon taux de réussite implicite pour les deux groupes est:
- Taux de réussite du groupe 1: = 1556/2455 = 63,4%
- Taux de réussite du groupe 2: = 1671/2730 = 61,2%
Le taux de réussite de chacun des échantillons est assez proche. Cependant, la taille de mes échantillons est également assez grande. Si je vérifie le CDF de la distribution binomiale pour voir à quel point il est différent du premier (où je suppose que le premier est le test nul), la probabilité que le second puisse être atteint est très faible.
Dans Excel:
1-BINOM.DIST (1556,2455,61,2%, VRAI) = 0,012
Cependant, ceci ne tient pas compte de la variance du premier résultat, il suppose simplement que le premier résultat est la probabilité du test.
Existe-t-il un meilleur moyen de vérifier si ces deux échantillons de données sont réellement différents sur le plan statistique?
prop.test
: prop.test(c(1556, 1671), c(2455, 2730))
.