TΛ Λ ( u ) = [ 1 + exp { - u } ] - 1
Pr ( Yje= 1 ∣ Tje= 1 ) = Λ ( α + βTje)
ΛΛ ( u ) = [ 1 + exp{ - u } ]- 1
Sous forme logit, nous avons
ln( Pr ( Yje= 1 ∣Tje= 1 )1 - Pr ( Yje= 1 ∣Tje= 1 )) =α+ βTje
Vous avez un échantillon de taille . Notons le nombre d'observations où et celles où , et . Considérez les probabilités conditionnelles estimées suivantes:n 1 T i = 1 n 0 T i = 0 n 1 + n 0 = nnn1Tje= 1n0Tje= 0n1+ n0= n
Pr^( O= 1 ∣ T= 1 ) ≡ P^1 | 1= 1n1∑Tje= 1yje
Pr^( O= 1 ∣ T= 0 ) ≡ P^1 | 0= 1n0∑Tje= 0yje
Ensuite, ce modèle très basique fournit des solutions sous forme fermée pour l'estimateur ML:
α^= ln( P^1 | 01 - P^1 | 0) ,β^= ln( P^1 | 11 - P^1 | 1) -ln( P^1 | 01 - P^1 | 0)
BIAS
Bien que et soient des estimateurs non biaisés des probabilités correspondantes, les MLE sont biaisés, car la fonction logarithmique non linéaire gêne - imaginer ce qui arrive aux modèles plus compliqués , avec un degré de non-linéarité plus élevé. P 1| 0P^1 | 1P^1 | 0
Mais asymptotiquement, le biais disparaît car les estimations de probabilité sont cohérentes. En insérant directement l' opérateur à l'intérieur de la valeur attendue et du logarithme, nous avons
lim n → ∞ E [ α ] = E [ ln ( lim n → ∞ P 1 | 0lim
limn → ∞E[ α^] = E[ ln( limn → ∞P^1 | 01 - P^1 | 0) ] =E[ ln( P1 | 01 - P1 | 0) ] =α
et de même pour . β
MATRICE DE VARIANCE-COVARIANCE DE MLE
Dans le cas simple ci-dessus qui fournit des expressions de forme fermée pour l'estimateur, on pourrait, au moins en principe, continuer et dériver sa distribution exacte d'échantillon fini, puis calculer sa matrice exacte d'échantillon fini variance-covariance . Mais en général, le MLE n'a pas de solution sous forme fermée. Ensuite, nous avons recours à une estimation cohérente de la matrice asymptotique de variance-covariance, qui est en effet (le négatif de) l'inverse de la Hesse de la fonction log-vraisemblance de l'échantillon, évaluée au MLE. Et il n'y a pas ici de "choix arbitraire", mais il résulte de la théorie asymptotique et des propriétés asymptotiques du MLE (cohérence et normalité asymptotique), qui nous dit que, pour ,
√θ0= ( α , β)
n--√( θ^- θ0) →réN( 0 , - ( E[ H] )- 1)
où est la Hesse. Approximativement et pour les (grands) échantillons finis, cela nous amène àH
Var( θ^) ≈ - 1n( E[ H] )- 1≈ - 1n( 1nH^)- 1= - H^- 1