En ce qui concerne le commentaire de Robby McKilliam: Je pense que la difficulté qu'un fréquentateur aurait avec cela réside dans la définition de «connaissances préalables», pas tant dans la capacité d'incorporer des connaissances antérieures dans un modèle. Par exemple, pensez à estimer la probabilité qu'une pièce donnée monte en tête. Supposons que mes connaissances antérieures étaient, essentiellement, une expérience dans laquelle cette pièce avait été retournée 10 fois et avait 5 têtes, ou peut-être de la forme "l'usine a fait 1 million de pièces, et la dist'n de , comme déterminé par d'énormes expériences, estpβ( a , b )". Tout le monde utilise la règle de Bayes lorsque vous avez vraiment des informations préalables de ce type (la règle de Bayes définit simplement la probabilité conditionnelle, ce n'est pas une chose uniquement bayésienne) donc dans la vraie vie, le fréquentateur et le bayésien utiliseraient la même approche, et incorporer les informations dans le modèle via la règle de Bayes (mise en garde: à moins que la taille de votre échantillon ne soit suffisamment grande pour que vous soyez certain que les informations antérieures n'auront pas d'effet sur les résultats.) Cependant, l'interprétation des résultats est, de bien sûr, différent.
Des difficultés surgissent, surtout d'un point de vue philosophique, car les connaissances deviennent moins objectives / expérimentales et plus subjectives. Dans ce cas, le fréquentiste deviendra probablement moins enclin à incorporer ces informations dans le modèle, alors que le bayésien dispose encore de mécanismes plus ou moins formels pour le faire, malgré les difficultés à obtenir un préalable subjectif.
En ce qui concerne la régularisation: considérons une vraisemblance et un précédent . Rien n'empêche, du moins pas techniquement, un fréquentiste d'utiliser l'estimation du maximum de vraisemblance "régularisée" par , comme dans:l ( θ ; x )p ( θ )Journalp ( θ )
θ~= maxθ{ logl ( θ ; x ) + logp ( θ ) }
Pour gaussien, cela équivaut à une pénalité quadratique rétrécissant vers la moyenne du gaussien, et ainsi de suite pour les autres distributions. est égal à l'estimation ponctuelle maximale a posteriori (MAP) d'un bayésien utilisant la même fonction de vraisemblance et la précédente. Bien sûr, encore une fois, l'interprétation des estimations fréquentistes et bayésiennes sera différente. Le bayésien n'est pas non plus contraint d'utiliser une estimation ponctuelle MAP, ayant accès à une distribution postérieure complète - mais ensuite, le fréquentiste n'a pas non plus à maximiser une probabilité logarithmique régularisée, étant capable d'utiliser diverses estimations robustes ou méthode de -moments, etc., si disponibles.p ( θ )θθ~
Encore une fois, la difficulté vient d'un point de vue philosophique. Pourquoi choisir une fonction de régularisation plutôt qu'une autre? Un bayésien peut le faire - en passant à une vue fondée sur les antérieurs - en évaluant les informations antérieures. Un fréquentiste aurait plus de difficulté (incapable de le faire?) À justifier un choix pour ces motifs, mais le ferait probablement en grande partie sur la base des propriétés de la fonction de régularisation appliquées à son type de problème, comme l'a appris l'articulation. travail / expérience de nombreux statisticiens. OTOH, (pragmatique) les Bayésiens le font aussi avec les prieurs - si j'avais 100 $ pour chaque article sur les prieurs pour les écarts que j'ai lus ...
Autres «réflexions»: j'ai sauté toute la question de la sélection d'une fonction de vraisemblance en supposant qu'elle n'est pas affectée par le point de vue fréquentiste / bayésien. Je suis sûr que c'est le cas dans la plupart des cas, mais je peux imaginer que dans des situations inhabituelles, ce serait, par exemple, pour des raisons de calcul.
Résumé: Je soupçonne que les fréquentistes peuvent, à l'exception peut-être de certains cas de coin, incorporer à peu près toutes les informations antérieures dans leurs modèles qu'un bayésien peut, d'un point de vue strictement mathématique et informatique. L'interprétation des résultats sera bien sûr différente. Je ne pense pas, cependant, que le fréquentiste considère qu'il est philosophiquement correct de le faire dans tous les cas, par exemple, la fonction de régularisation ci-dessus où la personne au bout du couloir qui sait réellement quelque chose sur dit "Je pense que devrait être environ 1,5 ". Et incorporer la quasi-ignorance via, disons, un prieur de Jeffrey, est tout de suite sorti.θθ