Estimateur du maximum de vraisemblance pour la distribution binomiale négative


11

La question est la suivante:

Un échantillon aléatoire de n valeurs est collecté à partir d'une distribution binomiale négative avec le paramètre k = 3.

  1. Trouvez l'estimateur du maximum de vraisemblance du paramètre π.
  2. Trouvez une formule asymptotique pour l'erreur standard de cet estimateur.
  3. Expliquez pourquoi la distribution binomiale négative sera approximativement normale si le paramètre k est suffisamment grand. Quels sont les paramètres de cette approximation normale?

Mon travail a été le suivant:
1. J'ai l'impression que c'est ce que l'on veut mais je ne sais pas si je suis précis ici ou si je peux éventuellement aller plus loin compte tenu des informations fournies?

p(x)=(x1k1)πk(1π)xkL(π)=Πinp(xn|π)(π)=Σinln(p(xn|π))(π)=Σinkπ(xk)(1π)
  1. Je pense que ce qui suit est demandé. Pour la dernière partie, je sens que je dois remplacer π^ par kx

    (π^)=kπ^2+x(1π^)2se(π^)=1(π^)se(π^)=π^2k(1π^)2x
  2. Je ne sais pas vraiment comment prouver celui-ci et je le recherche toujours. Tout conseil ou lien utile serait grandement apprécié. J'ai l'impression que cela est lié soit au fait qu'une distribution binomiale négative peut être considérée comme un ensemble de distributions géométriques ou à l'inverse d'une distribution binomiale, mais je ne sais pas comment l'aborder.

Toute aide serait grandement appréciée


(1) Pour trouver l'estimation de vraisemblance maximale vous devez trouver où la fonction log-vraisemblance atteint son maximum. Le calcul du score (la première dérivée de la fonction log-vraisemblance par rapport à ) est un début - quelle valeur cela prendra-t-il au maximum? (Et n'oubliez pas que vous n'avez pas besoin d'estimer .)π^πk
Scortchi - Réinstallez Monica

J'ai oublié d'ajouter la dérivée du log-vraisemblance = 0 afin de déterminer le maximum. Si j'ai compris cela correctement (que je travaillais dessus depuis la publication), ce que j'ai estkπΣi=0n(xik)(1π)=0
Syzorr

Attention:Notez également que commence à 1.i=1nkπi=1n(xik)(1π)= ?i
Scortchi - Réinstallez Monica

Dans (2), il est rare que l'inverse d'une différence soit la différence des inverses. Cette erreur affecte énormément votre formule finale pour . se(π^)
whuber

Réponses:


6

1.

p(x)=(xi1k1)πk(1π)xik

L(π;xi)=i=1n(xi1k1)πk(1π)xik

(π;xi)=i=1n[log(xi1k1)+klog(π)+(xik)log(1π)]d(π;xi)dπ=i=1n[kπ(xik)(1π)]

Mettez cela à zéro,

nkπ=i=1nxink1π

π^=nki=1nx

    2.

Pour la deuxième partie, vous devez utiliser le théorème qui , est l'information sur le pêcheur ici. Par conséquent, l'écart type de sera . Ou vous l'appelez comme erreur standard puisque vous utilisez CLT ici.n(θ^θ)DN(0,1I(θ))I(θ)θ^[nI(θ)]1/2

Nous devons donc calculer les informations de Fisher pour la distribution binomiale négative.

2log(P(x;π))π2=kπ2xk(1π)2

I(θ)=E(kπ2xk(1π)2)=kπ2+k(1π)(1π)2π

Remarque: pour le binôme négatif pmfE(x)=kπ

Par conséquent, l'erreur standard pour estπ^[n(kπ2+k(1π)(1π)2π)]1/2

Simplifions nous obtenons nous obtenonsse(π)=π2(π1)kn

    3.

La distribution géométrique est un cas particulier de distribution binomiale négative lorsque k = 1. Remarque est une distribution géométriqueπ(1π)x1

Par conséquent, une variable binomiale négative peut être écrite comme une somme de k variables aléatoires indépendantes (géométriques) distribuées de manière identique.

Donc, par CLT, la distribution binomiale négative sera approximativement normale si le paramètre k est suffisamment grand


1
Veuillez lire Quels sujets puis-je poser ici? sur les questions d'autoformation: plutôt que de faire les devoirs des gens pour eux, nous essayons de les aider à le faire eux-mêmes.
Scortchi - Réintégrer Monica

2
Vous ne devez tenir compte de la taille de l' échantillon lors du calcul du MLE. Vous pouvez confondre un compte de observations indépendantes, chacune des non. d'essais nécessaires pour atteindre échecs ( ) avec une seule observation du non. d'essais nécessaires pour atteindre échecs ( ). Le premier donne une probabilité de ; ce dernier, . nnkx1,x2,,xnkni=1nπ(1π)xikπk(1π)nk
Scortchi - Réintégrer Monica

1
Vous avez raison, je suis toujours déroutant sur cette partie. Merci beaucoup. Je pose également beaucoup de questions sur ce forum, mais j'espère vraiment que les gens pourront me donner une réponse très détaillée, puis je pourrai l'étudier moi-même étape par étape.
Deep North

Ouais. Je comprends pourquoi la règle interdisant de fournir trop de détails, mais cette réponse combinée avec mes propres notes de la conférence m'a permis de lier beaucoup de points lâches ensemble. J'ai l'intention d'aller parler à mon conférencier aujourd'hui à ce sujet afin que je puisse obtenir des éclaircissements de sa part. C'est vendredi ici maintenant. Affectation due lundi comme indiqué ci-dessus. Nous l'avons appris mercredi et nous n'avons qu'un seul exemple utilisant une distribution binomiale. Merci beaucoup pour le détail.
Syzorr

Il y a quelques défauts dans votre travail là-bas parce que I (θ) = E [] pas -E [] (ce qui m'a dérouté jusqu'à ce que je recherche les équations que vous avez utilisées)se(π)=π2(π1)kn
Syzorr
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.