Dans l'estimation du maximum de vraisemblance, vous essayez de maximiser ; cependant, maximiser cela équivaut à maximiser pour un fixe . p x ( 1 - p ) n - x xn CX pX( 1 - p )n - xpX( 1 - p )n - xX
En fait, la probabilité pour le gaussien et le poisson n'implique pas non plus leurs constantes de tête, donc ce cas est tout comme ceux comme w
Adressage des PO Commentaire
Voici un peu plus de détails:
Premièrement, est le nombre total de succès tandis que est un essai unique (0 ou 1). Par conséquent:x iXXje
∏i = 1npXje( 1 - p )1 - xje= p∑n1Xje( 1 - p )∑n11 - xje= pX( 1 - p )n - x
Cela montre comment vous obtenez les facteurs de probabilité (en exécutant les étapes ci-dessus à l'envers).
Pourquoi la constante disparaît-elle? De manière informelle, et ce que la plupart des gens font (y compris moi), c'est juste que la constante principale n'affecte pas la valeur de qui maximise la probabilité, nous l'ignorons donc (définissez-la effectivement sur 1).p
Nous pouvons dériver cela en prenant le log de la fonction de vraisemblance et en trouvant où sa dérivée est nulle:
ln( n CX pX( 1 - p )n - x) =ln( n CX) + x ln( p ) + ( n - x ) ln( 1 - p )
Prenez la dérivée par rapport à et mettez-la à :p0
rérépln( n CX) + x ln( p ) + ( n - x ) ln( 1 - p ) = xp- n - x1 - p= 0
⟹nX= 1p⟹p = xn
Notez que la constante de tête a été supprimée du calcul du MLE.
Plus philosophiquement, une vraisemblance n'a de sens que pour l'inférence jusqu'à une constante multiplicative, de sorte que si nous avons deux fonctions de vraisemblance et , alors elles sont inférentiellement équivalentes. C'est ce qu'on appelle la loi de vraisemblance . Par conséquent, si nous comparons différentes valeurs de utilisant la même fonction de vraisemblance, le terme principal devient non pertinent.L1, L2L1= k L2p
Sur le plan pratique, l'inférence utilisant la fonction de vraisemblance est en fait basée sur le rapport de vraisemblance, et non sur la valeur absolue de la vraisemblance. Cela est dû à la théorie asymptotique des rapports de vraisemblance (qui sont asymptotiquement chi carré - soumis à certaines conditions de régularité qui sont souvent appropriées). Les tests du rapport de vraisemblance sont favorisés en raison du lemme de Neyman-Pearson . Par conséquent, lorsque nous tentons de tester deux hypothèses simples, nous prenons le rapport et le facteur principal commun s'annule.
REMARQUE: cela ne se produira pas si vous comparez deux modèles différents, par exemple un binôme et un poisson. Dans ce cas, les constantes sont importantes.
Parmi les raisons ci-dessus, la première (non pertinente pour trouver le maximiseur de L) répond le plus directement à votre question.