Généralement non, mais potentiellement oui en cas de mauvaise spécification. La question que vous recherchez est appelée recevabilité. Une décision est recevable s'il n'y a pas de moyen moins risqué de la calculer.
Toutes les solutions bayésiennes sont admissibles et les solutions non bayésiennes sont admissibles dans la mesure où elles correspondent à une solution bayésienne dans chaque échantillon ou à la limite. Une solution Frequentist ou Bayesian admissible battra toujours une solution ML sauf si elle est également admissible. Cela dit, il y a quelques remarques pratiques qui rendent cette déclaration vraie mais vide de sens.
Premièrement, le prieur pour l'option bayésienne doit être votre vrai prieur et non une distribution antérieure utilisée pour rendre un éditeur heureux dans un journal. Deuxièmement, de nombreuses solutions fréquentistes sont inadmissibles et un estimateur de retrait aurait dû être utilisé à la place de la solution standard. Beaucoup de gens ignorent le lemme de Stein et ses implications pour l'erreur hors échantillon. Enfin, ML peut être un peu plus robuste, dans de nombreux cas, aux erreurs de spécification erronée.
Lorsque vous vous déplacez dans les arbres de décision et leurs cousins les forêts, vous n'utilisez pas une méthodologie similaire, sauf si vous utilisez également quelque chose de similaire à un filet Bayes. Une solution graphique contient une quantité importante d'informations implicites, en particulier un graphique dirigé. Chaque fois que vous ajoutez des informations à un processus probabiliste ou statistique, vous réduisez la variabilité du résultat et changez ce qui serait considéré comme admissible.
Si vous regardez l'apprentissage automatique dans une perspective de composition de fonctions, il devient simplement une solution statistique mais en utilisant des approximations pour rendre la solution traitable. Pour les solutions bayésiennes, MCMC économise des quantités incroyables de temps comme le fait la descente de gradient pour de nombreux problèmes ML. Si vous deviez construire un postérieur exact pour intégrer ou utiliser la force brute sur de nombreux problèmes de ML, le système solaire serait mort de sa chaleur avant que vous n'obteniez une réponse.
Je suppose que vous avez un modèle mal spécifié pour ceux qui utilisent des statistiques ou des statistiques inappropriées. J'ai enseigné une conférence où j'ai prouvé que les nouveau-nés flotteront par les fenêtres s'ils ne sont pas emmaillotés de manière appropriée et où une méthode bayésienne a si radicalement surclassé une méthode Frequentist sur un choix multinomial que la méthode Frequentist a même atteint son objectif, alors que la méthode Bayesian a doublé l'argent des participants . Maintenant, j'ai abusé des statistiques dans le premier et profité de l'inadmissibilité de l'estimateur Frequentist dans le second, mais un utilisateur naïf de statistiques pourrait facilement faire ce que j'ai fait. Je les ai juste rendus extrêmes pour rendre les exemples évidents, mais j'ai utilisé des données absolument réelles.
Les forêts aléatoires sont des estimateurs cohérents et semblent ressembler à certains processus bayésiens. En raison du lien avec les estimateurs du noyau, ils peuvent être assez proches. Si vous voyez une différence significative dans les performances entre les types de solutions, il y a quelque chose dans le problème sous-jacent que vous ne comprenez pas et si le problème revêt une importance, alors vous devez vraiment rechercher la source de la différence car il peut également être le cas où tous les modèles sont mal spécifiés.