Questions marquées «bagging»

L'ensachage ou l'agrégation bootstrap est un cas particulier de moyennage modèle. Étant donné un ensemble d'entraînement standard, l'ensachage génèrem nouveaux ensembles d'entraînement par bootstrapping, puis les résultats de l'utilisation d'une méthode d'entraînement sur le mles ensembles de données générés sont moyennés. L'ensachage peut stabiliser les résultats de certaines méthodes instables telles que les arbres.

1
Pourquoi l'ensachage utilise-t-il des échantillons de bootstrap?
L'ensachage est le processus de création de N apprenants sur N échantillons de bootstrap différents, puis de prise de la moyenne de leurs prédictions. Ma question est: pourquoi ne pas utiliser un autre type d'échantillonnage? Pourquoi utiliser des échantillons bootstrap?
10 bagging 

1
Confusion liée à la technique d'ensachage
J'ai un peu de confusion. Je lisais cet article où il expliquait que la technique d'ensachage réduit considérablement la variance et n'augmente que légèrement le biais. Je ne l'ai pas compris comment cela réduit la variance. Je sais ce qu'est la variance et le biais. Le biais est l'incapacité du …

1
Puis-je combiner de nombreux arbres améliorant le gradient en utilisant la technique d'ensachage
Basé sur Gradient Boosting Tree vs Random Forest . GBDT et RF utilisant une stratégie différente pour lutter contre le biais et la variance. Ma question est la suivante: puis-je rééchantillonner l'ensemble de données (avec remplacement) pour former plusieurs GBDT et combiner leurs prédictions comme résultat final? C'est équivalent à …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.