J'ai trouvé de nombreux articles qui indiquent que les méthodes de boosting sont sensibles aux valeurs aberrantes, mais aucun article expliquant pourquoi.
D'après mon expérience, les valeurs aberrantes sont mauvaises pour tout algorithme d'apprentissage automatique, mais pourquoi les méthodes de renforcement sont-elles particulièrement sensibles?
Comment les algorithmes suivants se classeraient-ils en termes de sensibilité aux valeurs aberrantes: arbre de stimulation, forêt aléatoire, réseau de neurones, SVM et méthodes de régression simples telles que la régression logistique?