Un apprenant «faible» (classificateur, prédicteur, etc.) en est un qui fonctionne relativement mal - sa précision est au dessus de la chance, mais à peine. Il y a souvent, mais pas toujours, l’implication supplémentaire que c’est simple en calcul. Un apprenant faible suggère également que de nombreuses instances de l'algorithme sont regroupées (via boosting, bagging, etc.) pour créer un classifieur d'ensemble "fort".
Il est mentionné dans le document original AdaBoost de Freund & Schapire:
La plus surprenante de ces applications est peut-être la dérivation d’une nouvelle application pour "booster", c’est-à-dire convertir un algorithme "faible" d’apprentissage PAC qui fonctionne à peine mieux que la devinette aléatoire en un algorithme avec une précision arbitrairement élevée. - (Freund & Schapire, 1995)
mais je pense que la phrase est en réalité plus ancienne que celle-là - j'ai vu des gens citer un terme (?!) de Michael Kearns des années 1980.
L'exemple classique d'un apprenant faible est un Decision Stump, un arbre de décision à un niveau (1R ou OneR est un autre apprenant faible couramment utilisé; il est assez similaire). Il serait un peu étrange d'appeler un SVM un «apprenant faible», même dans les situations où ses performances sont médiocres, mais il serait parfaitement raisonnable d'appeler une seule souche décisionnelle un apprenant faible, même si ses performances sont étonnamment bonnes.
Adaboost est un algorithme itératif et
désigne généralement le nombre d'itérations ou "tours". L'algorithme commence par former / tester un apprenant faible sur les données, en pondérant chaque exemple de manière égale. Les exemples mal classés voient leur poids augmenter pour le ou les prochains rounds, alors que ceux qui sont correctement classés voient leur poids diminué.
T
Je ne suis pas sûr qu'il y ait quelque chose de magique à propos de . Dans le document de 1995, T est donné comme paramètre libre (c’est-à-dire que vous le définissez vous-même).T= 10T