Je me demande si l'estimation du maximum de vraisemblance n'a jamais été utilisée dans les statistiques.
Certainement! En fait, beaucoup - mais pas toujours.
Nous en apprenons le concept mais je me demande quand il est réellement utilisé.
Lorsque les gens ont un modèle de distribution paramétrique, ils choisissent assez souvent d'utiliser l'estimation du maximum de vraisemblance. Lorsque le modèle est correct, il existe un certain nombre de propriétés pratiques des estimateurs du maximum de vraisemblance.
Par exemple - l'utilisation de modèles linéaires généralisés est assez répandue et dans ce cas, les paramètres décrivant la moyenne sont estimés par maximum de vraisemblance.
Il peut arriver que certains paramètres soient estimés par maximum de vraisemblance et d'autres non. Par exemple, considérons un GLM de Poisson sur-dispersé - le paramètre de dispersion ne sera pas estimé par maximum de vraisemblance, car le MLE n'est pas utile dans ce cas.
Si nous supposons la distribution des données, nous trouvons deux paramètres
Eh bien, parfois vous pouvez en avoir deux, mais parfois vous avez un paramètre, parfois trois ou quatre ou plus.
un pour la moyenne et un pour la variance,
Pensez-vous à un modèle particulier peut-être? Ce n'est pas toujours le cas. Envisagez d'estimer le paramètre d'une distribution exponentielle ou d'une distribution de Poisson ou d'une distribution binomiale. Dans chacun de ces cas, il y a un paramètre et la variance est fonction du paramètre qui décrit la moyenne.
Ou considérons une distribution gamma généralisée , qui a trois paramètres. Ou une distribution bêta à quatre paramètres , qui a (peut-être sans surprise) quatre paramètres. Notez également que (selon la paramétrisation particulière) la moyenne ou la variance ou les deux peuvent ne pas être représentés par un seul paramètre mais par les fonctions de plusieurs d'entre eux.
Par exemple, la distribution gamma, pour laquelle il existe trois paramétrisations dont l'utilisation est assez courante - les deux plus courantes ont à la fois la moyenne et la variance en fonction de deux paramètres.
Typiquement dans un modèle de régression ou un GLM, ou un modèle de survie (parmi de nombreux autres types de modèles), le modèle peut dépendre de plusieurs prédicteurs, auquel cas la distribution associée à chaque observation sous le modèle peut avoir un de ses propres paramètres (ou même plusieurs paramètres) qui sont liés à de nombreuses variables prédictives ("variables indépendantes").