Qu'est-ce qui rend le lasso instable pour la sélection des fonctionnalités?


12

Dans la détection compressée, il existe un théorème garantissant que a une solution clairsemée unique c (voir l'annexe pour plus de détails).

argminc1subject to y=Xc
c

Existe-t-il un théorème similaire pour le lasso? S'il existe un tel théorème, non seulement il garantira la stabilité du lasso, mais il fournira également au lasso une interprétation plus significative:

lasso peut découvrir le vecteur de coefficient de régression clairsemé c qui est utilisé pour générer la réponse y par y=Xc .

Il y a deux raisons pour lesquelles je pose cette question:

  1. Je pense que `` le lasso favorise une solution clairsemée '' n'est pas une réponse à la raison pour laquelle utiliser le lasso pour la sélection des fonctionnalités, car nous ne pouvons même pas dire quel est l'avantage des fonctionnalités que nous sélectionnons.

  2. J'ai appris que le lasso est connu pour être instable pour la sélection des fonctionnalités. En pratique, nous devons exécuter des échantillons de bootstrap pour évaluer sa stabilité. Quelle est la raison la plus cruciale à l'origine de cette instabilité?


Appendice:

Étant donné XN×M=(x1,,xM) . c est un vecteur Ω -parsé ( ΩM ). Le processus y=Xc génère la réponse y . Si X a la NSP (propriété d'espace nul) d'ordre Ω et que la matrice de covariance de X n'a pas de valeur propre proche de zéro, il y aura une solution unique à

argminc1subject to y=Xc
qui est exactement le c qui donne y .

Ce que dit également ce théorème, c'est aussi que si n'a pas le NSP d'ordre , il est tout simplement inutile de résoudre .XΩargminc:y=Xcc1


ÉDITER:

Après avoir reçu ces excellentes réponses, j'ai réalisé que j'étais confus lorsque je posais cette question.

Pourquoi cette question prête à confusion:

J'ai lu un document de recherche dans lequel nous devons décider combien d'entités (colonnes) la matrice de conception va avoir (les entités auxiliaires sont créées à partir des entités principales). Puisqu'il s'agit d'un problème typique , devrait être bien construit de sorte que la solution au lasso puisse être une bonne approximation de la vraie solution creuse.XN×Mn<pD

Le raisonnement est basé sur le théorème que j'ai mentionné en annexe: Si nous cherchons à trouver une solution -parse , a mieux d'avoir le NSP d'ordre .ΩcXΩ

Pour une matrice générale , si est violé, alorsN×MN>CΩlnM

aucune récupération stable et robuste de partir de et n'est possiblecDP

D correspond à , correspond àXPy

... comme attendu de la relation , la sélection du descripteur devient plus instable, c'est-à-dire que pour différents ensembles d'apprentissage, le descripteur sélectionné diffère souvent ...N=CΩlnM

La deuxième citation est la partie qui m'embrouille. Il me semble que lorsque l'inégalité est violée, ce n'est pas seulement la solution peut-être non unique (non mentionnée), mais le descripteur deviendra également plus instable.


2
Juste pour le contexte, le problème d'optimisation que vous notez au début de votre Q est appelé "poursuite de base". Si vous remplacez l'égalité par l'égalité approximative (jusqu'à une erreur L2), cela s'appelle "débruitage de poursuite de base". Le débruitage de la poursuite de base est mathématiquement équivalent au lasso. y=XcyXc
Amoeba dit Reinstate Monica

Un ensemble de diapositives utiles (mais pas faciles) se trouve ici: pages.iu.edu/~dajmcdon/research/talks/lasso.pdf et le théorème du déjeuner gratuit users.ece.utexas.edu/~cmcaram/pubs/ XuCaramanisMannor.NFL.pdf
Xavier Bourret Sicotte

Le théorème que vous citez concerne l'unicité. Votre question prête à confusion car l'unicité n'est pas nécessairement liée à la stabilité.
amibe dit Reinstate Monica

2
Oui, je pense que l'OP est quelque peu confus et la question n'est pas claire, d'où les différentes réponses possibles ... L'unicité est pour un seul ensemble de points de données, la stabilité s'applique pour la validation croisée, ou le bootstrap, ou de nouveaux points de données
Xavier Bourret Sicotte

Réponses:


8

MISE À JOUR

Voir ce deuxième article pour les commentaires de McDonald sur ma réponse où la notion de cohérence des risques est liée à la stabilité.


1) Unicité vs stabilité

Il est difficile de répondre à votre question car elle mentionne deux sujets très différents: l' unicité et la stabilité .

  • Intuitivement, une solution est unique si on lui donne un ensemble de données fixe, l'algorithme produit toujours les mêmes résultats. La réponse de Martin couvre ce point en détail.

  • La stabilité , d'autre part, peut être comprise intuitivement comme une stabilité pour laquelle la prédiction ne change pas beaucoup lorsque les données d'entraînement sont légèrement modifiées.

La stabilité s'applique à votre question car la sélection des fonctionnalités Lasso est (souvent) effectuée via la validation croisée, donc l'algorithme Lasso est exécuté sur différents plis de données et peut donner des résultats différents à chaque fois.

La stabilité et le théorème du déjeuner gratuit

En utilisant la définition d' ici si nous définissons la stabilité uniforme comme:

Un algorithme a une stabilité uniforme par rapport à la fonction de perte si les conditions suivantes sont réunies:βV

SZm  i{1,...,m},  sup|>V(fs,z)V(fS|i,z)|  β

Considéré en fonction de , le terme peut s'écrire . Nous disons que l'algorithme est stable lorsque diminue avec .mββmβm1m

alors le "No Free Lunch Theorem, Xu et Caramis (2012)" déclare que

Si un algorithme est clairsemé , dans le sens où il identifie des caractéristiques redondantes, alors cet algorithme n'est pas stable (et la stabilité uniforme liée ne va pas à zéro). [...] Si un algorithme est stable, il n'y a aucun espoir qu'il soit rare. (pages 3 et 4)β

Par exemple, la régression régularisée est stable et n'identifie pas les entités redondantes, tandis que la régression régularisée (Lasso) est instable. L2L1

Une tentative de répondre à votre question

Je pense que «le lasso favorise une solution clairsemée» n'est pas une réponse à la raison pour laquelle utiliser le lasso pour la sélection des fonctionnalités

  • Je ne suis pas d'accord, la raison pour laquelle Lasso est utilisé pour la sélection des fonctionnalités est qu'il fournit une solution clairsemée et peut être démontré qu'il a la propriété IRF, c'est-à-dire identifie les fonctionnalités redondantes.

Quelle est la raison la plus cruciale à l'origine de cette instabilité

  • Le théorème du déjeuner gratuit

Aller plus loin

Cela ne veut pas dire que la combinaison de la validation croisée et du lasso ne fonctionne pas ... en fait, il a été démontré expérimentalement (et avec beaucoup de théorie à l'appui) qu'il fonctionne très bien dans diverses conditions. Les principaux mots clés ici sont la cohérence , le risque, les inégalités oracle, etc.

Les diapositives et le papier suivants de McDonald et Homrighausen (2013) décrivent certaines conditions dans lesquelles la sélection des caractéristiques du lasso fonctionne bien: diapositives et papier: "Le lasso, la persistance et la validation croisée, McDonald et Homrighausen (2013)" . Tibshirani lui-même a également publié un grand ensemble de notes sur la rareté , la régression linéaire

Les différentes conditions de cohérence et leur impact sur le Lasso est un sujet de recherche actif et n'est certainement pas une question banale. Je peux vous orienter vers des articles de recherche pertinents:


1
Merci pour votre réponse complète! L'ensemble de diapositives que vous fournissez est tout simplement excellent!
meTchaikovsky

1
J'essaie toujours de traiter cette définition de la stabilité. Ma traduction est qu ' "un algorithme est stable si le changement de la fonction erreur / perte en exclut une validation croisée a une borne supérieure qui diminue comme " lorsque nous augmentons le nombre de plis / test-sets "β1m , j'espère avoir bien compris. Je me demande pourquoi c'est une propriété souhaitable pour bien faire fonctionner le lasso (ou plus précisément je me demande si c'est une propriété nécessaire).
Sextus Empiricus

1
Oui, sauf que m est le nombre de points de données. regardez ici la page 7 pour une limite probabiliste: math.arizona.edu/~hzhang/math574m/Read/LOOtheory.pdf - le fait est qu'il n'y a pas de limite sur la tabilité fournie en augmentant la taille de l'ensemble de données, ce qui signifie que l'algorithme peut sauter à des fonctions d'hypothèse éloignées en fonction d'un ensemble de données particulier. C'est pourquoi des conditions alternatives sont proposées, qui se rapportent à la structure sous-jacente de distribution et de corrélation (je pense) - mais auraient besoin d'aide pour les clarifier
Xavier Bourret Sicotte

Une autre notion importante est celle de la cohérence, comme expliqué ici par exemple: stat.ethz.ch/~nicolai/stability.pdf - comment la stabilité et la cohérence sont liées n'est pas claire mais semble faire l'objet de recherches actives, par exemple cbcl.mit.edu/publications /ps/mukherjee-AImemoOctNov.pdf
Xavier Bourret Sicotte

Bonne réponse! Pourriez-vous également mettre à jour certains liens avec des descriptions plus détaillées au cas où les liens eux-mêmes disparaissent à l'avenir? (J'en ai déjà fait un pour vous.)
Richard Hardy

7

Commentaires de Daniel J. McDonald

Professeur adjoint à l'Université d'Indiana Bloomington, auteur des deux articles mentionnés dans la réponse originale de Xavier Bourret Sicotte .

Votre explication est, en général, tout à fait correcte. Je voudrais souligner quelques points:

  1. Notre objectif dans la série d'articles sur CV et lasso était de prouver que "Lasso + Cross Validation (CV)" fait aussi bien que "Lasso + optimal "λ . En particulier, nous avons voulu montrer que les prédictions font aussi bien (sans modèle). Afin de faire des déclarations sur la récupération correcte des coefficients (trouver les bons non clairsemés), il faut supposer une vérité clairsemée, ce que nous ne voulions pas faire.

  2. La stabilité algorithmique implique la cohérence des risques (prouvé pour la première fois par Bousquet et Elisseeff). Par cohérence des risques, je veux dire que leva à zéro où f est soit soit le meilleur prédicteur d'une classe si la classe est mal spécifiée. Ce n'est cependant qu'une condition suffisante. Il est mentionné sur les diapositives auxquelles vous avez lié comme, essentiellement, "une technique de preuve possible qui ne fonctionnera pas, car le lasso n'est pas stable".||f^(X)f(X)||E[Y|X]

  3. La stabilité est seulement suffisante mais pas nécessaire. Nous avons pu montrer que, dans certaines conditions, «lasso + CV» prédit ainsi que «lasso + optimal ». L'article que vous citez donne les hypothèses les plus faibles possibles (celles de la diapositive 16, qui permettent ), mais utilise la forme contrainte du lasso plutôt que la version lagrangienne la plus courante. Un autre article ( http://www3.stat.sinica.edu.tw/statistica/J27N3/J27N34/J27N34.html ) utilise la version lagrangienne. Cela montre également que dans des conditions beaucoup plus fortes, la sélection du modèle fonctionnera également. Un article plus récent ( https://arxiv.org/abs/1605.02214 ) par d'autres personnes prétend améliorer ces résultats (je ne l'ai pas lu attentivement).λp>n

  4. En général, parce que le lasso (ou tout algorithme de sélection) n'est pas stable, il faut une analyse plus approfondie et / ou des hypothèses solides pour montrer que «algorithme + CV» sélectionnera le modèle correct. Je ne connais pas les conditions nécessaires, bien que cela soit extrêmement intéressant en général. Il n'est pas trop difficile de montrer que pour le lambda fixe, le prédicteur du lasso est localement Lipschitz dans le vecteur (je pense qu'un ou plusieurs articles de Ryan Tibshirani le font). Si l'on pouvait également affirmer que cela est vrai dans , ce serait très intéressant et pertinent ici.YXi

Le principal point à retenir que j'ajouterais à votre réponse: la «stabilité» implique la «cohérence des risques» ou la «précision des prédictions». Elle peut également impliquer la «cohérence de l'estimation des paramètres» sous plus d'hypothèses. Mais le théorème du déjeuner gratuit signifie «sélection» "pas stable". Le lasso n'est pas stable même avec un lambda fixe. Il est certainement instable donc lorsqu'il est combiné avec CV (de tout type). Cependant, malgré le manque de stabilité, il est toujours cohérent avec les risques et la sélection est cohérente avec ou sans CV L'unicité n'a pas d'importance ici.


5

Le Lasso, contrairement à la régression Ridge (voir par exemple Hoerl et Kennard, 1970; Hastie et al., 2009) n'a pas toujours une solution unique, bien qu'elle l'ait généralement. Cela dépend du nombre de paramètres dans le modèle, du fait que les variables soient continues ou discrètes et du rang de votre matrice de conception. Les conditions d'unicité peuvent être trouvées dans Tibshirani (2013).

Les références:

Hastie, T., Tibshirani, R. et Friedman, J. (2009). Les éléments de l'apprentissage statistique . Série Springer en statistiques. Springer, New York, 11e impression, 2e édition.

Hoerl, AE et Kennard, RW (1970). Régression de crête: estimation biaisée pour les problèmes non orthogonaux. Technometrics , 12 (1), 55-67.

Tibshirani, RJ (2013). Le problème du lasso et l'unicité. Electronic Journal of Statistics , 7, 1456-1490.


@ Merci! Pouvez-vous ajouter un bref résumé de ces références que vous fournissez?
meTchaikovsky

Hasite et al. (2009) est un livre qui couvre un grand nombre de sujets, dont le Lasso et la régression Ridge parmi eux. Cela vaut la peine d'être lu et peut être téléchargé à partir de la page d'accueil de Hastie: web.stanford.edu/~hastie/ElemStatLearn/download.html Hoerl & Kennard (1970) est une référence classique de régression Ridge et n'est probablement pas pertinente pour votre question directement, d'autres que de lire sur Ridge Regression. Tibshirani (2013) contient des informations sur le moment où le Lasso a une solution unique (et quand il a une quantité infinie de solutions).
Phil

3

Ce qui cause la non-unicité.

Pour les vecteurs (où est un signe indiquant si le changement de va augmenter ou diminuer ), chaque fois qu'ils sont affinement dépendants:sixisicic1

αisixi=0andαi=0

alors il existe un nombre infini de combinaisons qui ne changent pas la solution et la norme .ci+γαiXcc1

Par exemple:

y=[11]=[210111][c1c2c3]=Xc

a pour les solutions:c1=1

[c1c2c3]=[010]+γ[121]

avec0γ12

Nous pouvons en quelque sorte remplacer le vecteur en utilisantx2x2=0.5x1+0.5x3


Situations sans cette condition

Dans l'article de Tibshirani (de la réponse de Phil), trois conditions suffisantes sont décrites pour que le lasso ait une solution unique.

  1. Linéairement indépendant Lorsque l'espace nul est nul ou de manière équivalente lorsque le rang de est égal au nombre de colonnes (M). Dans ce cas, vous n'avez pas de combinaisons linéaires comme ci-dessus.XX
  2. Affinement indépendant Lorsque les colonnes sont en position générale.Xs

    Autrement dit, aucune colonne ne représente des points dans un plan dimensionnel . Un plan dimensionnel k-2 peut être paramétré par n'importe quel point comme avec . Avec un -ième point dans ce même plan, vous auriez les conditions aveckk2k1αisixiαi=1ksjxjαisixiαi=0

    Notez que dans l'exemple, les colonnes , et sont sur une seule ligne. (C'est cependant un peu gênant ici car les signes peuvent être négatifs, par exemple la matrice vient de ainsi aucune solution unique)x1x2x3[[21][11][01]]

  3. Lorsque les colonnes proviennent d'une distribution continue, il est peu probable (probabilité presque nulle) que vous ayez des colonnes de pas en position générale.XX

    Contrairement à cela, si les colonnes sont une variable catégorielle, cette probabilité n'est pas nécessairement presque nulle. La probabilité qu'une variable continue soit égale à un ensemble de nombres (c'est-à-dire les plans correspondant à la plage affine des autres vecteurs) est «presque» nulle. Mais ce n'est pas le cas pour les variables discrètes.X


+1 mais je pense que ce que l'on entend par instable dans les discussions récentes est lié à la sélection des fonctionnalités via la validation croisée en présence de fonctionnalités corrélées
Xavier Bourret Sicotte

@XavierBourretSicotte voulez-vous dire que même lorsqu'il existe une solution unique, le processus de sélection peut être instable en raison de fonctionnalités corrélées qui ajoutent des difficultés à (numériquement) trouver cette solution unique? C'est un peu déroutant car la question pose d'une part sur la stabilité et d'autre part sur l'unicité.
Sextus Empiricus

Oui, c'est ce que je veux dire, pas nécessairement à cause de l'instabilité numérique mais à cause des différences inhérentes dans les plis des données (pendant CV) qui conduisent à des solutions différentes pour différentes valeurs travers les plis. En pourrait être encore pire lors du bootstrappingλ
Xavier Bourret Sicotte

@XavierBourretSicotte Je n'ai actuellement aucune image intuitive claire pourquoi cela (différentes solutions pour différents et ensembles d'entraînement) est censé être instable. Je suppose que vous pourriez poster ceci comme réponse et l'expliquer. λ
Sextus Empiricus

@Martijn Weterings Merci! J'ai encore trois questions: 1. comment détecter une dépendance affinitaire? Dois-je savoir si sont indépendants ( math.stackexchange.com/q/82189 )? 2. comment déterminer dans la pratique? 3. que signifie une «position générale» de ? {v1v0,v2v0,,vkv0}siX
meTchaikovsky
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.