Voir aussi une question similaire sur stats.SE .
En stimulant les algorithmes tels que AdaBoost et LPBoost, il est connu que les apprenants "faibles" à combiner n'ont qu'à mieux performer que la chance d'être utiles, de Wikipedia:
Les classificateurs qu'il utilise peuvent être faibles (c'est-à-dire afficher un taux d'erreur substantiel), mais tant que leurs performances ne sont pas aléatoires (entraînant un taux d'erreur de 0,5 pour la classification binaire), ils amélioreront le modèle final. Même les classificateurs dont le taux d'erreur est supérieur à celui attendu d'un classificateur aléatoire seront utiles, car ils auront des coefficients négatifs dans la combinaison linéaire finale des classificateurs et se comporteront donc comme leurs inverses.
Quels sont les avantages d'utiliser des apprenants faibles plutôt que des apprenants forts? (par exemple, pourquoi ne pas augmenter avec des méthodes d'apprentissage "fortes" - sommes-nous plus enclins à sur-adapter?)
Existe-t-il une sorte de force «optimale» pour les apprenants faibles? Et est-ce lié au nombre d'apprenants dans l'ensemble?
Existe-t-il une théorie pour étayer les réponses à ces questions?