L'ensachage est la génération de plusieurs prédicteurs qui fonctionnent comme un prédicteur unique. Le décrochage est une technique qui enseigne à un réseau de neurones à faire la moyenne de tous les sous-réseaux possibles. En regardant les compétitions les plus importantes de Kaggle, il semble que ces deux techniques soient utilisées très souvent ensemble. Je ne vois aucune différence théorique en dehors de la mise en œuvre réelle. Qui peut m'expliquer pourquoi nous devrions utiliser les deux dans n'importe quelle application réelle? et pourquoi les performances s'améliorent lorsque nous les utilisons tous les deux?