Yudi Pawitan écrit dans son livre " Dans toutes les probabilités" que la dérivée seconde du log-vraisemblance évalué aux estimations du maximum de vraisemblance (MLE) est l' information observée de Fisher (voir également ce document , page 2). C’est exactement ce que la plupart des algorithmes d’optimisation aiment optim
en R
retour: le Hessian évalué au MLE. Quand le négatiflog-vraisemblance est minimisée, la hessienne négative est renvoyée. Comme vous le signalez à juste titre, les erreurs-types estimées de la MLE sont les racines carrées des éléments diagonaux de l'inverse de la matrice d'information de Fisher observée. En d’autres termes: Les erreurs-types estimées sont les racines carrées des éléments diagonaux de l’inverse du hessien (ou du hessien négatif).
Sommaire
- Le hessien négatif évalué à la MLE est le même que la matrice d'information de Fisher observée à la MLE.
- En ce qui concerne votre question principale: Non, il n’est pas exact de dire que les informations de Fisher observées peuvent être trouvées en inversant le hessien (négatif).
- Concernant votre deuxième question: l’inverse du hessien (négatif) est un estimateur de la matrice de covariance asymptotique. Par conséquent, les racines carrées des éléments diagonaux de la matrice de covariance sont des estimateurs des erreurs standard.
- Je pense que le deuxième document auquel vous vous connectez s'est trompé.
Officiellement
Soit une fonction de log-vraisemblance. La matrice d'information de Fisher est une matrice symétrique contenant les entrées suivantes:
La matrice d'information de Fisher observée est simplement , la matrice d'informations évaluée aux estimations de vraisemblance maximale (MLE). Le Hessian est défini comme suit:
l(θ) I(θ)(p×p)
I(θ)=−∂2∂θi∂θjl(θ), 1≤i,j≤p
I(θ^ML)H(θ)=∂2∂θi∂θjl(θ), 1≤i,j≤p
Ce n'est rien d'autre que la matrice des dérivées secondes de la fonction de vraisemblance par rapport aux paramètres. Il s'ensuit que si vous minimisez la log-vraisemblance
négative , la Hessienne renvoyée équivaut à la matrice d'informations de Fisher observée, tandis que dans le cas où vous maximisez la log-vraisemblance, la Hessienne
négative correspond à la matrice d'informations observées.
De plus, l’inverse de la matrice d’information de Fisher est un estimateur de la matrice de covariance asymptotique:
Les erreurs-types sont alors les racines carrées des éléments diagonaux de la matrice de covariance. Pour la distribution asymptotique d’une estimation du maximum de vraisemblance, on peut écrire
où désigne la valeur du paramètre true. Par conséquent, l’erreur type estimée des estimations du maximum de vraisemblance est donnée par:
Var(θ^ML)=[I(θ^ML)]−1
θ^ML∼aN(θ0,[I(θ^ML)]−1)
θ0SE(θ^ML)=1I(θ^ML)−−−−−−√