J'essaie de comprendre comment fonctionne XGBoost. Je comprends déjà comment les arbres boostés par le gradient fonctionnent sur Python sklearn. Ce qui n'est pas clair pour moi, c'est si XGBoost fonctionne de la même manière, mais plus rapidement, ou s'il existe des différences fondamentales entre celui-ci et l'implémentation de python.
Quand j'ai lu cet article
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Il me semble que le résultat final provenant de XGboost est le même que dans l'implémentation Python, mais la principale différence est de savoir comment XGboost trouve la meilleure division à faire dans chaque arbre de régression.
Fondamentalement, XGBoost donne le même résultat, mais il est plus rapide.
Est-ce correct ou y a-t-il autre chose qui me manque?