Les estimateurs de maximum de vraisemblance (MLE) sont asymptotiquement efficaces; nous constatons le résultat pratique dans la mesure où elles donnent souvent de meilleurs résultats que les estimations fondées sur la méthode des moments (MoM) (lorsqu'elles diffèrent), même pour des échantillons de petite taille
Ici, "mieux que" signifie "en général", c'est-à-dire que la variance est généralement plus faible lorsque les deux sont non biaisés et que l'erreur quadratique moyenne (EQM) est généralement plus petite.
La question se pose cependant:
Existe-t-il des cas où le MoM peut battre le MLE - sur le MSE , par exemple - dans de petits échantillons?
(où il ne s'agit pas d'une situation étrange / dégénérée - c.-à-d. étant donné que les conditions sont réunies pour que ML existe / soit asymptotiquement efficace)
Une question de suivi serait alors: «Quelle taille peut avoir un petit? - c’est-à-dire que s’il existe des exemples, y en a-t-il qui ont encore une taille d’échantillon relativement grande, voire même toutes les tailles d’échantillon finies?
[Je peux trouver un exemple d'estimateur biaisé qui peut battre ML dans des échantillons finis, mais ce n'est pas du MoM.]
Remarque ajoutée rétrospectivement: je me concentre ici principalement sur le cas univarié (qui est en fait l’origine de ma curiosité sous-jacente). Je ne veux pas exclure les cas à plusieurs variables, mais je ne veux pas non plus me perdre dans de longues discussions sur l'estimation de James-Stein.