Basé sur Gradient Boosting Tree vs Random Forest . GBDT et RF utilisant une stratégie différente pour lutter contre le biais et la variance.
Ma question est la suivante: puis-je rééchantillonner l'ensemble de données (avec remplacement) pour former plusieurs GBDT et combiner leurs prédictions comme résultat final?
C'est équivalent à construire une forêt aléatoire en utilisant GBDT comme apprenant de base
L'idée est que, le GBDT peut surdimensionner un ensemble de données (semblable à un arbre de décision à croissance complète, variance élevée à faible biais). J'espère que l'utilisation de la technique d'ensachage peut également réduire ce problème et souhaite obtenir de meilleures performances.
Toute suggestion?