Vous appliquez une définition relativement étroite du fréquentisme et du MLE - si nous sommes un peu plus généreux et définissons
Fréquentisme: objectif de cohérence, d'optimalité (asymptotique), de non biais et de taux d'erreur contrôlés sous échantillonnage répété, indépendamment des vrais paramètres
MLE = estimation ponctuelle + intervalles de confiance (IC)
alors il semble assez clair que le MLE satisfait tous les idéaux fréquentistes. En particulier, les IC dans le MLE, en tant que valeurs p, contrôlent le taux d'erreur sous échantillonnage répété et ne donnent pas la région de probabilité de 95% pour la valeur réelle du paramètre, comme beaucoup de gens le pensent - ils sont donc de part en part fréquents.
Toutes ces idées n'étaient pas déjà présentes dans le document de base de Fisher de 1922 "Sur les fondements mathématiques des statistiques théoriques" , mais l'idée d'optimalité et de non biais est, et Neyman ce dernier a ajouté l'idée de construire des IC avec des taux d'erreur fixes. Efron, 2013, «Un argument de 250 ans: croyance, comportement et bootstrap» , résume dans son histoire très lisible du débat bayésien / fréquentiste:
Le mouvement fréquentiste a vraiment commencé au début des années 1900. Ronald Fisher a développé la théorie du maximum de vraisemblance de l'estimation optimale, montrant le meilleur comportement possible pour une estimation, et Jerzy Neyman a fait de même pour les intervalles de confiance et les tests. Les procédures de Fisher et Neyman étaient un ajustement presque parfait aux besoins scientifiques et aux limites de calcul de la science du XXe siècle, jetant le bayésianisme dans une existence fantôme.
Concernant votre définition plus étroite - je suis légèrement en désaccord avec votre prémisse selon laquelle la minimisation du risque fréquentiste (FR) est le critère principal pour décider si une méthode suit la philosophie fréquentiste. Je dirais que le fait de minimiser FR est une propriété souhaitable découle de la philosophie fréquentiste, plutôt que de la précéder. Par conséquent, une règle de décision / estimateur n'a pas à minimiser les FR pour être fréquentiste, et minimiser les FR ne signifie pas non plus nécessairement qu'une méthode est fréquentiste, mais un fréquentiste préférerait sans doute minimiser les FR.
Si nous regardons spécifiquement le MLE: Fisher a montré que le MLE est asymptotiquement optimal (largement équivalent à la minimisation des FR), et c'était certainement une des raisons de promouvoir le MLE. Cependant, il savait que l'optimalité n'était pas valable pour une taille d'échantillon finie. Pourtant, il était satisfait de cet estimateur en raison d'autres propriétés souhaitables telles que la cohérence, la normalité asymptotique, l'invariance sous les transformations de paramètres, et n'oublions pas: la facilité de calcul. L'invariance en particulier est soulignée abondamment dans l'article de 1922 - d'après ma lecture, je dirais que le maintien de l'invariance sous la transformation des paramètres et la capacité de se débarrasser des priors en général, ont été l'une de ses principales motivations dans le choix du MLE. Si vous voulez mieux comprendre son raisonnement, je recommande vraiment le papier de 1922, c'est '