Courte définition du boosting :
Un ensemble d’apprenants faibles peut-il créer un seul apprenant fort? Un apprenant faible est défini comme un classifieur peu corrélé avec la vraie classification (il peut mieux étiqueter des exemples que des suppositions aléatoires).
Définition courte de forêt aléatoire :
Random Forests cultive de nombreux arbres de classification. Pour classer un nouvel objet à partir d'un vecteur d'entrée, placez le vecteur d'entrée sur chacun des arbres de la forêt. Chaque arbre donne une classification et on dit que l'arbre "vote" pour cette classe. La forêt choisit la classification ayant le plus de votes (sur tous les arbres de la forêt).
Une autre courte définition de Random Forest :
Une forêt aléatoire est un méta-estimateur qui adapte un certain nombre de classificateurs d'arbre de décision à différents sous-échantillons de l'ensemble de données et utilise la moyenne pour améliorer la précision prédictive et contrôler le sur-ajustement.
Si je comprends bien, Random Forest est un algorithme de renforcement qui utilise les arbres comme classificateurs faibles. Je sais qu'il utilise également d'autres techniques et les améliore. Quelqu'un m'a corrigé que Random Forest n'est pas un algorithme de boost?
Quelqu'un peut-il élaborer sur cela, pourquoi Random Forest n'est pas un algorithme de boost?