Le cadre bayésien a un gros avantage sur le fréquentiste car il ne dépend pas d'avoir une "boule de cristal" en termes de connaissance des hypothèses de distribution correctes à faire. Les méthodes bayésiennes dépendent de l'utilisation des informations dont vous disposez et de la manière de coder ces informations dans une distribution de probabilité.
Utiliser des méthodes bayésiennes, c'est essentiellement utiliser la théorie des probabilités dans toute sa puissance. Le théorème de Bayes n'est rien d'autre qu'une reformulation de la règle de produit classique de la théorie des probabilités:
p ( θ x | I) = p ( θ | I) p ( x | θ I) = p ( x | I) p ( θ | x I)
Tant que (c'est-à-dire que les informations antérieures ne disaient pas que ce qui avait été observé était impossible), nous pouvons le diviser et arriver à la theorm bayésienne. J'ai utilisé pour désigner l'information préalable, qui est toujours présente - vous ne pouvez pas attribuer une distribution de probabilité sans information.p ( x | I) ≠ 0je
Maintenant, si vous pensez que le théorème de Bayes est suspect, alors logiquement, vous devez également penser que la règle du produit est également suspecte. Vous pouvez trouver un argument déductif ici , qui dérive des règles de produit et de somme, similaire au théorème de Cox. Une liste plus explicite des hypothèses requises peut être trouvée ici .
Pour autant que je sache, l'inférence fréquentiste n'est pas basée sur un ensemble de fondements dans un cadre logique. Parce qu'il utilise les axiomes de probabilité de Kolmogorov, il ne semble pas y avoir de lien entre la théorie des probabilités et l'inférence statistique. Il n'y a pas d'axiomes pour l'inférence fréquentiste qui conduisent à une procédure à suivre. Il existe des principes et des méthodes (probabilité maximale, intervalles de confiance, valeurs de p, etc.), et ils fonctionnent bien, mais ils ont tendance à être isolés et spécialisés pour des problèmes particuliers. Je pense qu'il vaut mieux laisser les méthodes fréquentistes vagues dans leurs fondements, du moins en termes de cadre logique strict.
Pour le point , obtenir le même résultat n'est pas pertinent du point de vue de l'interprétation. Deux procédures peuvent conduire au même résultat, mais cela ne signifie pas nécessairement qu'elles sont équivalentes. Si je devais juste deviner et que je devais deviner l'estimation du maximum de vraisemblance (MLE), cela ne signifierait pas que ma supposition est aussi bonne que MLE.θ1θ
Pour le point , pourquoi craignez-vous que des personnes ayant des informations différentes parviennent à des conclusions différentes? Quelqu'un avec un doctorat en mathématiques pourrait, et devrait, tirer des conclusions différentes à quelqu'un avec des mathématiques de niveau secondaire. Ils ont différentes quantités d'informations - pourquoi devrions-nous nous attendre à ce qu'ils soient d'accord? Lorsque l'on vous présente des informations connues, vous avez tendance à changer d'avis. La quantité dépend du type d'informations qu'il s'agissait. Le théorème de Bayes contient cette fonctionnalité, comme il se doit.2
L'utilisation d'une a priori uniforme est souvent une approximation commode à faire lorsque la probabilité est forte par rapport à l'a priori. Il ne vaut parfois pas la peine de passer à travers et de configurer correctement un a priori. De même, ne faites pas l'erreur de confondre les statistiques bayésiennes avec MCMC. MCMC est juste un algorithme d'intégration, identique au quadratre guassien, et dans une classe similaire à l'approximation de Laplace. Il est un peu plus utile que quadratre car vous pouvez réutiliser la sortie de l'algorithme pour faire toutes vos intégrales (les moyennes et les variances postérieures sont intégrales), et un peu plus général que Laplace parce que vous n'avez pas besoin d'un gros échantillon, ou d'un pic bien arrondi à l'arrière (Laplace est cependant plus rapide).