J'essaie de comprendre les différences entre GBM et Adaboost.
Ce sont ce que j'ai compris jusqu'à présent:
- Il existe deux algorithmes de renforcement, qui tirent les leçons des erreurs des modèles précédents et font enfin une somme pondérée des modèles.
- GBM et Adaboost sont assez similaires sauf pour leurs fonctions de perte.
Mais il m'est toujours difficile de saisir l’idée des différences qui existent entre elles. Est-ce que quelqu'un peut me donner des explications intuitives?