Combien de calcul est nécessaire pour comprendre l'estimation du maximum de vraisemblance?


11

J'essaie de planifier un plan d'étude pour apprendre le MLE. Pour ce faire, j'essaie de déterminer quel est le niveau minimum de calcul nécessaire pour comprendre le MLE.

Est-il suffisant de comprendre les bases du calcul (c'est-à-dire trouver le minimum et le maximum de fonctions) pour comprendre le MLE?


2
Comme toujours, cela dépend . Si vous essayez seulement de comprendre les bases, être en mesure de trouver des fonctions extrêmes vous permet d'obtenir un moyen équitable (bien que dans de nombreux cas pratiques de MLE, le L soit M numériquement, auquel cas vous avez également besoin d'autres compétences comme certains calculs de base).
Glen_b -Reinstate Monica

Merci. Pourriez-vous expliquer le cas que vous avez mentionné plus en détail? Ça semble intéressant.
histelheim

ok mais maintenant je dois en faire une réponse. Attendre.
Glen_b -Reinstate Monica

Réponses:


20

Pour développer mon commentaire - cela dépend. Si vous essayez seulement de comprendre les bases, être en mesure de trouver des fonctions extrêmes vous permet d'obtenir un moyen équitable (bien que dans de nombreux cas pratiques de MLE, la probabilité soit maximisée numériquement, auquel cas vous avez besoin d'autres compétences ainsi que d'autres calcul de base).

Je laisse de côté les beaux cas simples où vous obtenez des solutions algébriques explicites. Même ainsi, le calcul est souvent très utile.

Je vais assumer l'indépendance tout au long. Prenons le cas le plus simple possible de l'optimisation à 1 paramètre. Nous allons d'abord examiner un cas où nous pouvons prendre des dérivées et séparer une fonction du paramètre et une statistique.

Considérons la densité gunemmune(α,1)

FX(X;α)=1Γ(α)Xα-1exp(-X);X>0;α>0

Ensuite, pour un échantillon de taille n , la probabilité est

L(α;X)=je=1nFX(Xje;α)

et donc la log-vraisemblance est

l(α;X)=je=1nlnFX(Xje;α)=je=1nln(1Γ(α)Xjeα-1exp(-Xje))
=je=1n-lnΓ(α)+(α-1)lnXje-Xje
=-nlnΓ(α)+(α-1)SX-nX¯
SX=je=1nlnXje

αl(α;X)=α(-nlnΓ(α)+(α-1)SX-nX¯)
=-nΓ(α)Γ(α)+SX
=-nψ(α)+SX

α^

ψ(α^)=lng(X)

ψ()g()

α^

ψ(α^)=g

g=lng(X)

Cela n'a pas de solution en termes de fonctions élémentaires, il faut le calculer numériquement; au moins, nous avons pu obtenir une fonction du paramètre d'un côté et une fonction des données de l'autre. Il existe différents algorithmes de recherche de zéro qui peuvent être utilisés si vous ne disposez pas d'un moyen explicite de résoudre l'équation (même si vous êtes sans dérivées, il y a une section binaire, par exemple).

F(X;μ)=14sech2(X-μ2).
μ

θ

FX(X;θ)=1π(1+(X-θ)2).

En général, la probabilité ici n'a pas un maximum local unique, mais plusieurs maxima locaux. Si vous trouvez un maximum local, il peut y en avoir un autre, plus grand ailleurs. (Parfois, les gens se concentrent sur l'identification du maximum local le plus proche de la médiane, ou quelque chose du genre.)

(0,θ)

Dans d'autres cas, l'espace des paramètres peut être discret.

Parfois, trouver le maximum peut être assez compliqué.

Et ce n'est qu'un échantillon des problèmes avec un seul paramètre. Lorsque vous avez plusieurs paramètres, les choses sont à nouveau plus impliquées.


4

RpR

Une installation avec des logarithmes sera certainement utile, car maximiser le logarithme de la probabilité est généralement beaucoup plus facile que de maximiser la probabilité elle-même.

RpR

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.