Pourquoi utiliser la régularisation dans la régression polynomiale au lieu de baisser le degré?


32

Lors de la régression, par exemple, deux hyper paramètres à choisir sont souvent la capacité de la fonction (par exemple, le plus grand exposant d’un polynôme) et la quantité de régularisation. Pourquoi ne pas simplement choisir une fonction à faible capacité, puis ignorer toute régularisation? De cette façon, il ne sera pas sur-ajusté. Si ma fonction à haute capacité est associée à une régularisation, n’est-ce pas la même chose que d’avoir une fonction à faible capacité et aucune régularisation?

Réponses:


49

J'ai récemment créé un peu dans l'application de navigateur que vous pouvez utiliser pour jouer avec ces idées: Scatterplot Smoothers (*).

Voici quelques données que j'ai constituées, avec un ajustement polynomial de faible degré

Quadratic Fit

0.60,850,85

Pour nous débarrasser des biais, nous pouvons augmenter le degré de la courbe à trois, mais le problème demeure, la courbe cubique est encore trop rigide.

Coupe cubique

Nous continuons donc à augmenter le degré, mais maintenant nous nous trouvons face au problème opposé

Dix degrés Fit

Cette courbe suit les données de trop près et a tendance à s’envoler dans des directions moins bien confirmées par les tendances générales des données. C’est là que la régularisation entre en jeu. Avec la même courbe de degré (dix) et une régularisation bien choisie

Degré dix régularisation

Nous obtenons un très bon ajustement!

Cela vaut la peine de mettre l’accent sur un aspect bien choisi ci-dessus. Lorsque vous adaptez des polynômes à des données, vous avez un choix discret de degrés. Si une courbe de degré trois est sous-ajustée et une courbe de degré quatre est sur-ajustée, vous n’avez nulle part où aller au milieu. La régularisation résout ce problème, car elle vous permet de jouer avec une gamme continue de paramètres de complexité.

comment prétendez-vous "nous avons vraiment une bonne forme!". Pour moi, ils se ressemblent tous, à savoir, peu concluants. Quelle logique utilisez-vous pour décider ce qui est bon et mauvais?

Bon point.

L’hypothèse que je fais ici est qu’un modèle bien ajusté ne devrait pas avoir de tendance discernable dans les résidus. Maintenant, je ne trace pas les résidus, vous devez donc travailler un peu en regardant les images, mais vous devriez pouvoir utiliser votre imagination.

Dans la première image, avec la courbe quadratique ajustée aux données, je peux voir le motif suivant dans les résidus

  • De 0,0 à 0,3, ils sont placés à peu près également au-dessus et au-dessous de la courbe.
  • De 0,3 à environ 0,55, tous les points de données se situent au-dessus de la courbe.
  • De 0,55 à environ 0,85, tous les points de données sont en dessous de la courbe.
  • À partir de 0,85, ils se retrouvent tous au-dessus de la courbe.

Je qualifierais ces comportements de biais locaux , il y a des régions où la courbe ne permet pas bien d'approcher la moyenne conditionnelle des données.

Comparez ceci à la dernière coupe, avec la spline cubique. Je ne peux pas distinguer les régions à l'œil nu où l'ajustement ne semble pas fonctionner exactement au centre de la masse des points de données. C’est généralement (bien que de manière imprécise) ce que j’entends par un bon ajustement.


2

  • Leur comportement aux limites de vos données peut être très chaotique, même avec une régularisation.
  • Ils ne sont en aucun cas locaux . Le fait de modifier vos données à un endroit donné peut avoir un impact considérable sur l’adéquation à un endroit très différent.

Au lieu de cela, dans une situation comme celle que vous décrivez, il est recommandé d’utiliser des splines cubiques naturelles ainsi qu’une régularisation, qui offrent le meilleur compromis entre flexibilité et stabilité. Vous pouvez voir par vous-même en ajustant quelques splines dans l'application.

Spline cubique naturelle

(*) Je crois que cela ne fonctionne que dans les versions chrome et firefox en raison de l'utilisation de certaines fonctionnalités javascript modernes (et de la paresse générale pour résoudre ce problème dans un safari ou autre). Le code source est ici , si vous êtes intéressé.


3
Merci et votre outil de navigation est génial - j'adore les petites démonstrations interactives comme celle-ci!
Karnivaurus

@ Karnivaurus Merci, je suis heureux de pouvoir aider. L’outil était amusant à construire, j’aime écrire du javascript:)
Matthew Drury

3
+6. Bon travail en écrivant cet outil! Vous recevrez une prime de moi une fois que le fil est assez vieux pour la mettre à prix.
Amibe dit de réintégrer Monica

4
+1 C'est une très bonne réponse. Une façon de montrer l’instabilité de l’ajustement polynomial de degré élevé consiste à tracer la régression d’ordre élevé avec un point de données supprimé pour chaque point, et de le comparer à la solution RCS.
Sycorax dit: Réintégrer Monica

1
@MatthewDrury "splines cubiques restreintes" - désolé pour ça.
Sycorax dit Rétablir Monica

4

Non, ce n'est pas pareil. Comparez, par exemple, un polynôme du second ordre sans régularisation à un polynôme du quatrième ordre. Ce dernier peut imposer de gros coefficients pour les troisième et quatrième puissances tant que cela semble augmenter la précision prédictive, selon la procédure utilisée pour choisir la taille de la pénalité pour la procédure de régularisation (probablement une validation croisée). Cela montre que l'un des avantages de la régularisation est qu'elle vous permet d'ajuster automatiquement la complexité du modèle afin de trouver un équilibre entre surajustement et sous-ajustement.


Mais si vous ajoutez la régularisation à un polynôme du quatrième ordre, cela l'empêche d'utiliser toute l'étendue de son expressivité. Donc, avec suffisamment de régularisation, l'expressivité sera réduite au point d'être aussi expressive qu'un polynôme du second ordre. Non?
Karnivaurus

1
Peut-être si vous fixiez votre pénalité à l'avance, mais quel est le sens de cela? La taille de la pénalité doit être choisie en fonction des données.
Kodiologist

4

Pour les polynômes, même de petits changements dans les coefficients peuvent faire la différence pour les exposants les plus élevés.

L2


2

Toutes les réponses sont excellentes et j'ai des simulations similaires avec Matt pour vous donner un autre exemple afin de montrer pourquoi un modèle complexe avec régularisation est généralement préférable à un modèle simple .

J'ai fait une analogie pour avoir une explication intuitive.

  • Cas 1 vous avez seulement un élève du secondaire avec des connaissances limitées (un modèle simple sans régularisation)
  • Cas n ° 2, vous avez un étudiant diplômé mais le limitez à n’utiliser que les connaissances acquises au lycée pour résoudre des problèmes. (modèle complexe avec régularisation)

Si deux personnes résolvent le même problème, les étudiants des cycles supérieurs trouveraient généralement une meilleure solution, en raison de l’expérience et des connaissances relatives aux connaissances.

La figure 1 montre 4 raccordements aux mêmes données. 4 raccords sont ligne, parabole, modèle 3ème ordre et modèle 5ème ordre. Vous pouvez observer que le modèle du 5ème ordre peut avoir un problème de surajustement.

entrez la description de l'image ici

D'autre part, dans la deuxième expérience, nous utiliserons un modèle d'ordre 5 avec un niveau de régularisation différent. Comparez le dernier avec le modèle de second ordre. (deux modèles sont en surbrillance) vous constaterez que le dernier est similaire (avec à peu près la même complexité de modèle) à la parabole, mais légèrement plus flexible pour les données.

entrez la description de l'image ici


1
"ont approximativement la même complexité de modèle" ... c'est visuellement la comparaison "évidente", existe-t-il une méthode mathématique pour la mesurer?
Silverfish
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.