Si quelqu'un a dit
"Cette méthode utilise le MLE l'estimation ponctuelle pour le paramètre qui maximise , donc c'est fréquentiste; et en plus ce n'est pas bayésien."
accepteriez-vous?
- Mise à jour sur le fond : j'ai récemment lu un article qui prétend être fréquentiste. Je ne suis pas d'accord avec leur affirmation, au mieux, je pense que c'est ambigu. Le document ne mentionne explicitement ni le MLE (ni le MAP , d'ailleurs). Ils prennent simplement une estimation ponctuelle, et ils procèdent simplement comme si cette estimation ponctuelle était vraie. Ils ne pasfaire une analyse de la distribution d'échantillonnage de cet estimateur, ou quelque chose comme ça; le modèle est assez complexe et une telle analyse n'est donc probablement pas possible. Ils n'utilisent le mot «postérieur» à aucun moment non plus. Ils prennent simplement cette estimation ponctuelle à leur valeur nominale et passent à leur principal sujet d'intérêt - déduire les données manquantes. Je ne pense pas qu'il y ait quoi que ce soit dans leur approche qui suggère quelle est leur philosophie. Ils ont peut-être voulu être fréquentistes (car ils se sentent obligés de porter leur philosophie sur leur manche), mais leur approche réelle est assez simple / pratique / paresseuse / ambiguë. Je suis enclin à dire maintenant que la recherche n'a pas vraiment de philosophie derrière elle; je pense plutôt que leur attitude était plus pragmatique ou pratique:
"J'ai observé des données, , et je souhaite estimer certaines données manquantes, . Il y a un paramètre qui contrôle la relation entre et . Je ne me soucie pas vraiment de sauf comme un moyen pour une fin . Si j'ai une estimation pour il sera plus facile de prédire partir de . Je choisirai une estimation ponctuelle de parce que c'est pratique, en particulier je choisirai le qui maximise . "z θ z x θ θ z x θ θ P ( x | θ )
Dans les méthodes bayésiennes, les rôles des données et des paramètres sont en quelque sorte inversés. En particulier, nous conditionnons maintenant les données observées et procédons à des inférences sur la valeur du paramètre. Cela nécessite un préalable.
Jusqu'ici tout va bien, mais où se situe le MLE (Maximum Lik vraisemblable Estimation) dans tout cela? J'ai l'impression que beaucoup de gens pensent qu'il est fréquentiste (ou plus précisément, qu'il n'est pas bayésien). Mais je pense que c'est bayésien car il s'agit de prendre les données observées puis de trouver le paramètre qui maximise . Le MLE utilise implicitement un a priori uniforme et conditionne les données et maximise . Est-il juste de dire que le MLE a l'air à la fois fréquentiste et bayésien? Ou tout outil simple doit-il appartenir exactement à l'une de ces deux catégories?P ( p a r a m e t e r | d a t a )
Le MLE est cohérent mais je pense que la cohérence peut être présentée comme une idée bayésienne. Étant donné des échantillons arbitrairement grands, l'estimation converge vers la bonne réponse. L'énoncé «l'estimation sera égale à la valeur réelle» est vrai pour toutes les valeurs du paramètre. La chose intéressante est que cette affirmation est également vraie si vous conditionnez les données observées, ce qui en fait bayésien. Ce côté intéressant vaut pour le MLE, mais pas pour un estimateur sans biais.
C'est pourquoi je pense que le MLE est la «plus bayésienne» des méthodes que l'on pourrait qualifier de fréquentiste.
Quoi qu'il en soit, la plupart des propriétés fréquentistes (telles que l'impartialité) s'appliquent dans tous les cas, y compris les tailles d'échantillon finies. Le fait que la cohérence ne soit valable que dans le scénario impossible (échantillon infini dans une expérience) suggère que la cohérence n'est pas une propriété aussi utile.
Étant donné un échantillon réaliste (c.-à-d. Fini), existe-t-il une propriété Frequentist qui vaut pour le MLE? Sinon, le MLE n'est pas vraiment Frequentist.