Nombre prévu de lancers jusqu'à ce que la première tête arrive


18

Supposons qu'une bonne pièce soit lancée à plusieurs reprises jusqu'à ce qu'une tête soit obtenue pour la première fois.

  • Quel est le nombre prévu de lancers qui seront nécessaires?
  • Quel est le nombre attendu de queues qui seront obtenues avant l'obtention de la première tête?

2
Ce lien contient les réponses aux deux questions: en.wikipedia.org/wiki/Geometric_distribution
swmo

2
S'il s'agit d'une question d'autoformation, veuillez ajouter la balise.
Xi'an

Réponses:


17

On peut y répondre en utilisant la distribution géométrique comme suit:

Le nombre d'échecs k - 1 avant le premier succès (têtes) avec une probabilité de succès p ("têtes") est donné par:

p(X=k)=(1p)k1p

avec k étant le nombre total de lancers y compris les premiers « têtes » qui met fin à l'expérience.

Et la valeur attendue de X pour un p donné est .1/p=2

La dérivation de la valeur attendue peut être trouvée ici . Les dernières étapes laissées implicites devraient être les suivantes:

à brancher sur l'expression:ddr11r=1(1r)2

. Avecr=1-p, cela simplifieE(X)=p1px=1x rx=p1p r (ddr11r)=p1p r 1(1r)2r=1p

, justifiant son utilisation ci-dessus.]E(X)=1p

Alternativement, nous pourrions utiliser la distribution binomiale négative interprétée comme le nombre d'échecs avant le premier succès. La fonction de masse de probabilité est donnée comme p (nombre d'échecs, n , avant d'atteindre r succès | étant donné une certaine probabilité, p , de succès dans chaque essai de Bernoulli):

p(n;r,p)=(n+r1r1)pr(1p)n

L'espérance de nombre d'essais, n + r est donnée par la formule générale:

r(1p)

Etant donné nos paramètres connus: r = 1 et p = 0,5 ,

E(n+r;1,0.5)=r1p=110.5=2

Par conséquent, nous pouvons nous attendre à faire deux lancers avant d'obtenir la première tête avec le nombre attendu de queues étant .E(n+r)r=1

Nous pouvons exécuter une simulation Monte Carlo pour le prouver:

   set.seed(1)

p <- 1/2

reps <- 10000                         # Total number of simulations.

tosses_to_HEAD <- 0                   # Setting up an empty vector to add output to.

for (i in 1:reps) {
  head <- 0                           # Set the variable 'head' to 0 with every loop.
  counter <- 0                        # Same forlocal variable 'counter'.
  while (head == 0) {
    head <- head + rbinom(1, 1, p)    # Toss a coin and add to 'head'
    counter <- counter + 1            # Add 1 to 'counter'
  }
  tosses_to_HEAD[i] <- counter        # Append number in counter after getting heads.
}

mean(tosses_to_HEAD)
[1] 2.0097

1
Pour la question actuelle, la distribution est appelée la distribution géométrique . G(p)
Xi'an

And the expected value of p 1 / p et comment est-il censé le prouver? X for a given p is 1/p
Dilip Sarwate

Il y a une belle dérivation sur math.stackexchange.com/questions/235927/… Mais je peux inclure la fin de cette dérivation dans ma réponse.
Antoni Parellada

4

Modélisez le jeu en tirant un ticket d'une boîte. Il existe deux types de billets. Sur l'un est écrit "Arrêtez, vous avez jeté des têtes"; de l'autre, il est écrit «Continue, tu as jeté la queue». Le nombre attendu de lancers supplémentaires dans le premier cas est de tandis que le nombre attendu de lancers supplémentaires dans le second cas est x , disons - nous ne le savons pas encore et devons le comprendre.0x

Écrivez ces attentes sur leurs tickets respectifs: ce sont les valeurs des tickets.

Les trois choses que nous savons sont:

  1. La chance de tirer un ticket "Stop" (avec la valeur ) est p0p .

  2. La chance de tirer un ticket "Continuer" (avec la valeur ) est de 1 - px1p .

  3. L'attente de ce tirage unique est, par définition, la somme des valeurs pondérées par les probabilités sur tous les types de tickets:

    p×0+(1p)×x=(1p)x.

x lui-même. En égalisant ces deux expressions,

x=1+(1p)x.

Solving for x answers the first question. Since the number of tails is always one less than the number of draws, the expected number of tails also must be one less than the expected number of draws. Therefore x1 answers the second question.


A second intuitively clear solution can be obtained by contemplating a very long sequence of n tosses. How many games were played? Answer: the number of heads (plus one more incomplete game if the sequence ends with a series of tails). How many heads are expected? Answer: pn. Call this number h. The Weak Law of Large Numbers asserts that the actual number of heads is highly likely to be very close to pn provided n is sufficiently large. Therefore the average game length x, given by some number between n/h and n/(h+1), will be arbitrarily close to n/(pn), whence it must equal x itself.

This leads to an extremely efficient way to simulate the distribution of game lengths. Here is R code. It records "heads" as true values in a boolean array and computes the tosses between successive true values.

p <- 1/3                                           # Set the chance of heads
tosses <- runif(1e6) < p                           # Make a million tosses
sim <- diff(c(TRUE, which(tosses)))                # Compute game lengths
hist(sim, xlab="Game length", main="Distribution") # Graph their distribution
mean(sim)                                          # Report the average length

When I ran this code after setting the seed to 17 (set.seed(17)), the output differed from x by only a tiny amount.


Could you help me understand why the "x" of the drawing game and the "x" in the second equation represent the same thing? I have no idea how do you get the second equation. Thank you very much.
Light

@Light The second equation is explained in the paragraph preceding it.
whuber

♦ Thank u for ur reply. I've read the definition of x and the paragraph you said again and again, but I still don't understand. Let me say my understanding and pls help me know if I misunderstand sth. From my understanding, x is the "additional" expected number in the drawing tickets game, which is a different game from the original game, beacause the expectation(let me call it "E") of the coin game includes the first tossing. In my opinion, E should be "x + 1", but they're not the same thing. In the equation, you made the x and E the same thing that makes me confused. Thank u.
Light

2

Let X be the number of coin flips required until a head is obtained. So, we need to calculate E(X) (i.e. expected value of X).

We can condition E(X) on whatever our first flip is. Let E(X|H) denote the number of remaining coin flips given I got a head on the first flip. Similarly, let E(X|T) denote the number of remaining coin flips given I got a tail on the first flip.

By first step conditioning, we have

E(X)=12(1+E(X|H))+12(1+E(X|T))

Now, as E(X|H) denoted the remaining flips after receiving head on the first, it will be equal to 0 as I don't need to flip after getting 1 head.

And, E(X|T)=E(X), as we did not make any progress towards getting 1 head.

So, E(X)=12(1+0)+12(1+E(X))

=> E(X)=2

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.