Questions marquées «lasso»

Une méthode de régularisation pour les modèles de régression qui réduit les coefficients vers zéro, rendant certains d'entre eux égaux à zéro. Ainsi, le lasso effectue la sélection des fonctionnalités.

1
LARS vs descente coordonnée pour le lasso
Quels sont les avantages et les inconvénients de l'utilisation de LARS [1] par rapport à l'utilisation de la descente de coordonnées pour ajuster la régression linéaire régularisée L1? Je m'intéresse principalement aux aspects de performance (mes problèmes ont tendance à avoir Ndes centaines de milliers et p<20). Cependant, toute autre …


3
Implémentation du lasso non négatif dans R
Je recherche une source ouverte ou une bibliothèque existante que je peux utiliser. Autant que je sache, le paquet glmnet n'est pas très facilement extensible pour couvrir le cas non négatif. Je peux me tromper, toute personne ayant des idées très appréciées. Par non négatif, je veux dire que tous …
13 r  lasso 



2
Modification du lasso pour LARS
J'essaie de comprendre comment l'algorithme Lars peut être modifié pour générer Lasso. Bien que je comprenne le LARS, je ne suis pas en mesure de voir la modification au Lasso de l'article de Tibshirani et al. En particulier, je ne vois pas pourquoi la condition de signe en ce que …
12 lasso 


1
Mise à jour de l'ajustement au lasso avec de nouvelles observations
J'ajuste une régression linéaire régularisée L1 à un très grand ensemble de données (avec n >> p.) Les variables sont connues à l'avance, mais les observations arrivent en petits morceaux. Je voudrais maintenir l'ajustement du lasso après chaque morceau. Je peux évidemment réajuster le modèle entier après avoir vu chaque …
12 regression  lasso 

4
Comment appliquer la méthode des moindres carrés itérativement repondérés (IRLS) au modèle LASSO?
J'ai programmé une régression logistique en utilisant l' algorithme IRLS . Je souhaite appliquer une pénalisation LASSO afin de sélectionner automatiquement les bonnes fonctionnalités. À chaque itération, le problème suivant est résolu: (XTWX)δβ^=XT(y−p)(XTWX)δβ^=XT(y−p)\mathbf{\left(X^TWX\right) \delta\hat\beta=X^T\left(y-p\right)} Soit un nombre réel non négatif. Je ne pénalise pas l'interception comme suggéré dans The Elements …


4
Qu'est-ce qui rend le lasso instable pour la sélection des fonctionnalités?
Dans la détection compressée, il existe un théorème garantissant que a une solution clairsemée unique c (voir l'annexe pour plus de détails).argmin∥c∥1subject to y=Xcargmin‖c‖1subject to y=Xc\text{argmin} \Vert c \Vert_1\\ \text{subject to } y = Xc ccc Existe-t-il un théorème similaire pour le lasso? S'il existe un tel théorème, non seulement …


5
Normes Ridge & LASSO
Cet article suit celui-ci: pourquoi l'estimation des crêtes devient-elle meilleure que l'OLS en ajoutant une constante à la diagonale? Voici ma question: Pour autant que je sache, la régularisation des crêtes utilise une norme ℓ2ℓ2\ell_2 (distance euclidienne). Mais pourquoi utilisons-nous le carré de cette norme? (une application directe de ℓ2ℓ2\ell_2 …

3
Lasso contre Lasso adaptatif
LASSO et LASSO adaptatif sont deux choses différentes, non? (Pour moi, les pénalités sont différentes, mais je vérifie simplement si je manque quelque chose.) Quand on parle généralement de filet élastique, est-ce le cas particulier LASSO ou LASSO adaptatif? Lequel le paquet glmnet fait-il, à condition de choisir alpha = …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.