Le boosting peut généralement être compris comme un vote (pondéré)
Dans le cas du boosting, un de ses inventeurs donne une réponse affirmative dans cette introduction à AdaBoost (c'est moi qui souligne):
L' hypothèse finale ou combinée H calcule le signe d'une combinaison pondérée d'hypothèses faibles
F( x ) =∑t = 1Tαtht( x )
Cela revient à dire que Hest calculé comme un vote majoritaire pondéré des hypothèses faibles ht où chacun se voit attribuer un poids αt. (Dans ce chapitre, nous utilisons les termes «hypothèse» et «classificateur» de manière interchangeable.)
Alors oui, le modèle final renvoyé est un vote pondéré de tous les apprenants faibles formés à cette itération. De même, vous trouverez cet extrait sur Wikipédia sur le renforcement en général:
Bien que le boosting ne soit pas contraint algorithmiquement, la plupart des algorithmes de boosting consistent à apprendre de manière itérative des classificateurs faibles par rapport à une distribution et à les ajouter à un classificateur fort final. Lorsqu'ils sont ajoutés, ils sont généralement pondérés d'une manière qui est généralement liée à la précision des apprenants faibles.
Notez également la mention que les algorithmes de boosting d'origine utilisaient une "majorité". La notion de vote est assez solidement ancrée dans la stimulation: son principe directeur est d'améliorer un ensemble à chaque itération en ajoutant un nouvel électeur, puis en décidant du poids à donner à chaque vote.
Cette même intuition porte par exemple sur le boost de gradient : à chaque itérationm nous trouvons un nouvel apprenant hm adapté aux pseudo-résidus, puis optimiser γm pour décider du poids à donner hm"vote".
L'extension à toutes les méthodes d'ensemble s'exécute en contre-exemples
Dans l'état actuel des choses, certains trouveraient que même la notion de pondération étire la métaphore du vote. Lorsque vous envisagez d'étendre cette intuition à toutes les méthodes d' apprentissage d'ensemble , tenez compte de cet extrait:
Les ensembles combinent plusieurs hypothèses pour former une (espérons-le) meilleure hypothèse. Le terme ensemble est généralement réservé aux méthodes qui génèrent plusieurs hypothèses en utilisant le même apprenant de base.
Et celui-ci sur l'exemple de méthode d'ensemble d' empilement :
L'empilement (parfois appelé généralisation empilée) implique la formation d'un algorithme d'apprentissage pour combiner les prédictions de plusieurs autres algorithmes d'apprentissage. Tout d'abord, tous les autres algorithmes sont entraînés en utilisant les données disponibles, puis un algorithme combineur est formé pour faire une prédiction finale en utilisant toutes les prédictions des autres algorithmes comme entrées supplémentaires. Si un algorithme de combinateur arbitraire est utilisé, l'empilement peut théoriquement représenter n'importe laquelle des techniques d'ensemble décrites dans cet article, bien qu'en pratique, un modèle de régression logistique à une seule couche soit souvent utilisé comme combinateur.
Si vous définissez des méthodes d'ensemble pour inclure des méthodes d'empilement avec un combinateur arbitraire, vous pouvez construire des méthodes qui, à mon avis, étendent la notion de vote au-delà de sa limite. Il est difficile de voir comment une collection d'apprenants faibles combinée via un arbre de décision ou un réseau de neurones peut être considérée comme un «vote». (Laissant de côté la question également difficile de savoir quand cette méthode pourrait se révéler pratiquement utile.)
Certaines introductions décrivent les ensembles et le vote comme synonymes; Je ne connais pas assez la littérature récente sur ces méthodes pour dire comment ces termes sont généralement appliqués récemment, mais j'espère que cette réponse donne une idée de l'étendue de la notion de vote.