Il semble que lorsque je jette un coup d'œil ici aux algorithmes d'apprentissage à la mode, des choses comme les réseaux de neurones, les arbres boostés, les machines à vecteurs de support, les forêts aléatoires et les amis sont promus pour les problèmes d'apprentissage supervisé. Les processus de Dirichlet et leurs semblables semblent être mentionnés principalement dans les problèmes d'apprentissage non supervisés, tels que le regroupement de documents ou d'images. Je les vois s'habituer à des problèmes de régression, ou en tant que priors à usage général quand on veut faire des statistiques bayésiennes de manière non paramétrique ou semi-paramétrique (par exemple comme un a priori flexible sur la distribution des effets aléatoires dans certains modèles) mais mon expérience limitée suggère que cela ne vient pas autant de la foule de l'apprentissage automatique que des statisticiens plus traditionnels. J'ai fait une petite recherche sur ce sujet et je '
Ainsi, les processus de Dirichlet et leurs cousins sont-ils les plus efficaces en tant que priors pour les modèles de clustering flexibles? Ne sont-ils pas compétitifs avec le boosting, les SVM et les réseaux de neurones pour les problèmes d'apprentissage supervisé? Sont-ils utiles uniquement dans certaines situations pour ces problèmes? Ou mon impression générale est-elle incorrecte?