On peut y répondre en utilisant la distribution géométrique comme suit:
Le nombre d'échecs k - 1 avant le premier succès (têtes) avec une probabilité de succès p ("têtes") est donné par:
p(X=k)=(1−p)k−1p
avec k étant le nombre total de lancers y compris les premiers « têtes » qui met fin à l'expérience.
Et la valeur attendue de X pour un p donné est .1/p=2
La dérivation de la valeur attendue peut être trouvée ici . Les dernières étapes laissées implicites devraient être les suivantes:
à brancher sur l'expression:ddr11−r=1(1−r)2
. Avecr=1-p, cela simplifieE(X)=p1−p∑x=1∞x rx=p1−p r (ddr11−r)=p1−p r 1(1−r)2r=1−p
, justifiant son utilisation ci-dessus.]E(X)=1p
Alternativement, nous pourrions utiliser la distribution binomiale négative interprétée comme le nombre d'échecs avant le premier succès. La fonction de masse de probabilité est donnée comme p (nombre d'échecs, n , avant d'atteindre r succès | étant donné une certaine probabilité, p , de succès dans chaque essai de Bernoulli):
p(n;r,p)=(n+r−1r−1)pr(1−p)n
L'espérance de nombre d'essais, n + r est donnée par la formule générale:
r(1−p)
Etant donné nos paramètres connus: r = 1 et p = 0,5 ,
E(n+r;1,0.5)=r1−p=11−0.5=2
Par conséquent, nous pouvons nous attendre à faire deux lancers avant d'obtenir la première tête avec le nombre attendu de queues étant .E(n+r)−r=1
Nous pouvons exécuter une simulation Monte Carlo pour le prouver:
set.seed(1)
p <- 1/2
reps <- 10000 # Total number of simulations.
tosses_to_HEAD <- 0 # Setting up an empty vector to add output to.
for (i in 1:reps) {
head <- 0 # Set the variable 'head' to 0 with every loop.
counter <- 0 # Same forlocal variable 'counter'.
while (head == 0) {
head <- head + rbinom(1, 1, p) # Toss a coin and add to 'head'
counter <- counter + 1 # Add 1 to 'counter'
}
tosses_to_HEAD[i] <- counter # Append number in counter after getting heads.
}
mean(tosses_to_HEAD)
[1] 2.0097