Relation entre la matrice de Hesse et la matrice de covariance


12

Pendant que j'étudie l'estimation du maximum de vraisemblance, pour faire l'inférence dans l'estimation du maximum de vraisemblance, nous devons connaître la variance. Pour connaître la variance, j'ai besoin de connaître la limite inférieure de Rram de Cramer, qui ressemble à une matrice de Hesse avec une deuxième dérivation sur la courbure. Je suis un peu mélangé pour définir la relation entre la matrice de covariance et la matrice de Hesse. J'espère entendre quelques explications sur la question. Un exemple simple sera apprécié.

Réponses:


13

Vous devez d'abord consulter cette question de base sur la matrice d'informations de Fisher et sa relation avec la Hesse et les erreurs standard

Supposons que nous ayons un modèle statistique (famille de distributions) . Dans le cas le plus général, nous avons d i m ( Θ ) = d , donc cette famille est paramétrée par θ = ( θ 1 , , θ d ) T{Fθ:θΘ}jem(Θ)=θ=(θ1,,θ)T . Sous certaines conditions de régularité, nous avons

jeje,j(θ)=-Eθ[2l(X;θ)θjeθj]=-Eθ[Hje,j(l(X;θ))]

est une matrice d'informations de Fisher (en fonction de θ ) et X est la valeur observée (échantillon)jeje,jθX

l(X;θ)=ln(Fθ(X)), pour certains θΘ

Ainsi, la matrice d'informations de Fisher est une valeur attendue négative de Hesian de la probabilité logarithmique sous un certain θ

Supposons maintenant que nous voulons estimer une fonction vectorielle du paramètre inconnu . On souhaite généralement que l'estimateur T ( X ) = ( T 1 ( X ) , , T d ( X ) ) soit sans biais, c'est-à-direψ(θ)T(X)=(T1(X),,T(X))

θΘ Eθ[T(X)]=ψ(θ)

Cramer Rao Lower Bound déclare que pour tout T ( X ) non biaisé, le c o v θ ( T ( X ) )T(X)covθ(T(X)) satisfait

covθ(T(X))ψ(θ)θje-1(θ)(ψ(θ)θ)T=B(θ)

UNEBUNE-Bψ(θ)θJje,j(ψ)θψ(θ)=θ

covθ(T(X))je-1(θ)

Mais qu'est-ce que cela nous dit vraiment? Par exemple, rappelez-vous que

vunerθ(Tje(X))=[covθ(T(X))]je,je

UNE diagonale les éléments diagonaux sont non négatifs

je UNEje,je0

B(θ)

je vunerθ(Tje(X))[B(θ)]je,je

Le CRLB ne nous dit donc pas la variance de notre estimateur, mais plus ou moins notre estimateur est optimal , c'est-à-dire s'il a la covariance la plus faible parmi tous les estimateurs sans biais.


2
J'apprécie votre explication ici. Je ne suis pas vraiment une mathématique mais je suis en train d'apprendre les maths sérieusement. Cependant, cela me semble encore trop abstrait. J'espère qu'il y a un exemple doux avec des chiffres simples, qui le comprendra certainement.
user122358
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.