Trouver la distribution conjointe de et


8

Cette question est tirée de la question 7.6.7 de l'introduction à la statistique mathématique de Robert Hogg, 6e version. Le problème est :

Soit un échantillon aléatoire de taille d'une distribution avec le pdfn

f(x;θ)=(1/θ)exp(x/θ)I(0,)(x)

Trouvez le MLE et la MVUE de .P(X2)

Je sais comment trouver le MLE.

Je pense que l'idée de trouver le MVUE est d'utiliser Rao-Blackwell et Lehmann et Scheffe. Nous trouvons d'abord un estimateur sans biais de qui peut être , et nous savons a statistique suffisante.P(X2)I(0,2)(X1)Y=i=1nXi

Alors sera le MUVE.E[I(0,2)(X1)Y]

Pour trouver l'espérance, nous avons besoin de la distribution conjointe de etX1Y=i=1nXi

Je suis coincé ici.

Le livre a une solution, mais je ne comprends pas la solution. La solution dit que nous devons trouver la distribution conjointe de et mais en laissant d'abord et le jacobien en est un puis nous intégrons ces autres variables.Z=X1YV=X1+X2U=X1+X2+X3+...

Comment se fait-il que le jacobien soit égal à un?

La réponse pour la distribution conjointe est

g(z,y;θ)=(yz)n2(n2)!θney/θ

Comment obtenons-nous cela?

Mise à jour: Comme suggéré par Xi'an (la transformation suggérée par le livre prête à confusion), faisons la transformation de la manière suivante:

Laisser

Y1=X1,Y2=X1+X2,Y3=X1+X2+X3,Y4=X1+X2+X3+X4,Yn=X1+X2+X3+X4++Xn

puis

X1=Y1,X2=Y2Y1,X3=Y3Y2,X4=Y4Y3,Xn=YnYn1

et le jacobien correspondant est:

|J|=|x1y1x1y2x1y3x1ynx2y1x2y2x2y3x2ynx3y1x3y2x3y3x3ynxny1xny2xny3xnyn|=10000110000110000011=1

Puisque sont iid [ou ], la densité conjointe de est:X1,X2,,XnΓ(1,θ)E(1/θ)x1,x2,,xn

f(x1,x2,,xn)=1θexp(x1/θ)×1θexp(x2/θ)××1θexp(xn/θ)Ix10Ixn0

Par conséquent, le pdf commun de est(Y1,Y2,,Yn)

h(y1,y2,,yn)=1θnexp(y1/θ)exp[(y2y1)/θ]exp[(y3y2)/θ]exp[(ynyn1)/θ]|J|Iy10Iy2y10Iynyn10=1θnexp(yn/θ)Iy10Iy2y1Iynyn1

Ensuite, nous pouvons intégrer pour obtenir le pdf commun ety2,y3,,yn1y1yn

Grâce aux suggestions de Xi'an, maintenant je peux résoudre le problème, je vais donner des calculs détaillés ci-dessous

g(y1,yn)=y1yny2ynyn3ynyn2yn1θnexp(yn/θ)dyn1dyn2dy3dy2=1θnexp(yn/θ)y1yny2ynyn3ynyn2yndyn1dyn2dy3dy2=1θnexp(yn/θ)y1yny2ynyn4ynyn3yn(ynyn2)dyn2dyn3dy3dy2=1θnexp(yn/θ)y1yny2ynyn5ynyn4yn(ynyn3)22dyn3dyn4dy3dy2=1θnexp(yn/θ)y1yny2ynyn6ynyn5yn(ynyn4)32×3dyn4dyn5dy3dy2=1θnexp(yn/θ)y1yny2ynyn7ynyn6yn(ynyn5)42×3×4dyn5dyn4dy3dy2==1θnexp(yn/θ)(yny1)n2(n2)!

Changez la notation du livre, , nous obtenonsy=yn,z=y1

g(z,y;θ)=(yz)n2θn(n2)!ey/θ.

Cela résout le problème.


Je ne comprends pas la notion de passer par mais la transformation de à a un jacobien, appliquez simplement la définition d'un jacobien. X1+X2(x1,...,xn)(x1,x1+x2,,x1++xn)
Xi'an

@ Xi'an, merci. J'ai essayé la transformation mais je ne toujours pas à trouver la solution suggérée par le livreY1=X1,Y2=X1+X2,...,Yn=X1+X2+...+Xn
Deep North

1
Vous y êtes presque: j'ai corrigé la dérivation de la densité conjointe de en ajoutant les fonctions d'indicateur. Cela implique que les limites des intégrales de doivent être si vous abord , puis , puis ... Cela vous fournira le manquant. (Y1,,Yn)y2,,yn1
y1yny2ynyn2yn
yn1yn2(n2)!
Xi'an

Réponses:


4

L'argument de la transformation fonctionne bien et est toujours utile, mais je vais maintenant suggérer une autre façon de résoudre ce problème qui présente une certaine ressemblance avec la méthode que vous utiliseriez si les variables étaient discrètes. Rappelons que la principale différence est que tandis que pour une variable aléatoire discrète, est bien défini pour un rv continu , , nous devons donc être un peu prudents.X P(X=x)YP(Y=y)=0

Soit et nous recherchons maintenant la distribution conjointeS=i=1nXi

fX1,S(x1,s)

que nous pouvons approximer avec la probabilité

fX1,S(x1,s)P[x1<X1<x1+Δx1,s<S<s+Δs]P[x1<X1<x1+Δx1,sx1<i=2nXi<sx1+Δs]=P[x1<X1<x1+Δx1]P[sx1<i=2nXi<sx1+Δs]1θexp{x1θ}(sx1)n2exp{sx1θ}Γ(n1)θn1=(sx1)n2θn(n2)!exp{sθ}

pour . Notez que dans la quatrième ligne, nous avons utilisé la propriété d'additivité de la distribution gamma, dont l'exponentielle est un cas spécial.0<x1<s<

Si vous ajustez la notation, nous obtenons la même chose ici que ci-dessus. Cette méthode vous permet de vous en sortir avec l'intégration multiple et c'est pourquoi je la préfère. Encore une fois, soyez prudent dans la façon dont vous définissez les densités.

J'espère que cela t'aides.


4

Corrigez-moi si je me trompe, mais je ne pense pas qu'il soit nécessaire de trouver la distribution conditionnelle pour trouver l'attente conditionnelle pour l'UMVUE. Nous pouvons trouver la moyenne conditionnelle en utilisant des relations bien connues entre des variables indépendantes Bêta et Gamma. Plus précisément, le fait que si et sont des variables Gamma indépendantes, alors est une variable Gamma, et elle est indépendante de la variable Beta .UVU+VUU+V

Ici, notez que et sont distribués indépendamment. Et est distribué indépendamment de .X1Gamma(1,1θ)je=2nXjeGamma(n-1,1θ)X1+je=2nXjeGamma(n,1θ)X1X1+je=2nXjeBêta(1,n-1)

Définissezh(X1,,Xn)={1, si X120, autrement 

T=je=1nXje est complet suffisant pour la famille de distributions .{1-exp(-Xθ):θ>0}

Donc UMVUE de est par le théorème de Lehmann-Scheffe.P(X2)E(hT)

Nous avons,

E(hT=t)=P(X12i=1nXi=t)=P(X1i=1nXi2ti=1nXi=t)=P(X1X1+i=2nXi2ti=1nXi=t)=P(X1X1+i=2nXi2t)=02/t(1x)n2B(1,n1)dx=1(12t)n1

Par conséquent, l'UMVUE de doit être .P(X2)1(12i=1nXi)n1


1
J'aime mieux cette réponse.
hyg17
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.