Biais des estimateurs du maximum de vraisemblance pour la régression logistique


10

J'aimerais comprendre quelques faits sur les estimateurs du maximum de vraisemblance (MLE) pour les régressions logistiques.

  1. Est-il vrai qu'en général, le MLE pour la régression logistique est biaisé? Je dirais "oui". Je sais, par exemple, que la dimension de l'échantillon est liée au biais asymptotique des MLE.

    Connaissez-vous des exemples élémentaires de ce phénomène?

  2. Si le MLE est biaisé, est-il vrai que la matrice de covariance des MLE est l'inverse de la Hesse de la fonction de maximum de vraisemblance?

    edit : j'ai rencontré cette formule assez souvent et sans aucune preuve; cela me semble un choix tout à fait arbitraire.

Réponses:


15

TΛ Λ ( u ) = [ 1 + exp { - u } ] - 1

Pr(Ouije=1Tje=1)=Λ(α+βTje)
ΛΛ(u)=[1+exp{-u}]-1

Sous forme logit, nous avons

ln(Pr(Ouije=1Tje=1)1-Pr(Ouije=1Tje=1))=α+βTje

Vous avez un échantillon de taille . Notons le nombre d'observations où et celles où , et . Considérez les probabilités conditionnelles estimées suivantes:n 1 T i = 1 n 0 T i = 0 n 1 + n 0 = nnn1Tje=1n0Tje=0n1+n0=n

Pr^(Oui=1T=1)P^1|1=1n1Tje=1yje

Pr^(Oui=1T=0)P^1|0=1n0Tje=0yje

Ensuite, ce modèle très basique fournit des solutions sous forme fermée pour l'estimateur ML:

α^=ln(P^1|01-P^1|0),β^=ln(P^1|11-P^1|1)-ln(P^1|01-P^1|0)

BIAS

Bien que et soient des estimateurs non biaisés des probabilités correspondantes, les MLE sont biaisés, car la fonction logarithmique non linéaire gêne - imaginer ce qui arrive aux modèles plus compliqués , avec un degré de non-linéarité plus élevé. P 1| 0P^1|1P^1|0

Mais asymptotiquement, le biais disparaît car les estimations de probabilité sont cohérentes. En insérant directement l' opérateur à l'intérieur de la valeur attendue et du logarithme, nous avons lim n E [ α ] = E [ ln ( lim n P 1 | 0lim

limnE[α^]=E[ln(limnP^1|01-P^1|0)]=E[ln(P1|01-P1|0)]=α

et de même pour . β

MATRICE DE VARIANCE-COVARIANCE DE MLE
Dans le cas simple ci-dessus qui fournit des expressions de forme fermée pour l'estimateur, on pourrait, au moins en principe, continuer et dériver sa distribution exacte d'échantillon fini, puis calculer sa matrice exacte d'échantillon fini variance-covariance . Mais en général, le MLE n'a pas de solution sous forme fermée. Ensuite, nous avons recours à une estimation cohérente de la matrice asymptotique de variance-covariance, qui est en effet (le négatif de) l'inverse de la Hesse de la fonction log-vraisemblance de l'échantillon, évaluée au MLE. Et il n'y a pas ici de "choix arbitraire", mais il résulte de la théorie asymptotique et des propriétés asymptotiques du MLE (cohérence et normalité asymptotique), qui nous dit que, pour , θ0=(α,β)

n(θ^-θ0)N(0,-(E[H])-1)

où est la Hesse. Approximativement et pour les (grands) échantillons finis, cela nous amène àH

Var(θ^)-1n(E[H])-1-1n(1nH^)-1=-H^-1
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.