Une méthode de régularisation pour les modèles de régression qui réduit les coefficients vers zéro, rendant certains d'entre eux égaux à zéro. Ainsi, le lasso effectue la sélection des fonctionnalités.
J'ai un ensemble de données avec 338 prédicteurs et 570 instances (impossible de télécharger malheureusement) sur lequel j'utilise le Lasso pour effectuer la sélection des fonctionnalités. En particulier, j'utilise la cv.glmnetfonction glmnetcomme suit, où se mydata_matrixtrouve une matrice binaire 570 x 339 et la sortie est également binaire: library(glmnet) x_dat …
Le lasso et le filet élastique ne sont pas en mesure de traiter des variables de plus de deux catégories et, par conséquent, une répartition des variables catégorielles en variables muettes est nécessaire pour l'application de ces méthodes. Cela peut entraîner plusieurs problèmes et il existe donc des extensions du …
Quelqu'un peut-il fournir une vue intuitive sur pourquoi il est préférable d'avoir une version bêta plus petite? Pour LASSO, je peux comprendre cela, il y a un composant de sélection de fonctionnalités ici. Moins de fonctionnalités rendent le modèle plus simple et donc moins susceptible d'être sur-ajusté. Cependant, pour l'arête, …
J'ai effectué un lasso, puis laissé une validation croisée cv<-cv.glmnet(df, df$Price, nfolds = 1500) Lorsque je trace un cv, j'obtiens ce qui suit: J'ai aussi remarqué que j'obtenais 2 lambdas différents: lambda.minetlambda.1se Quelle est la différence entre ces lambdas? Que puis-je comprendre de l'intrigue ci-dessus en général (à quoi servent …
Je comprends que la détection compressée trouve la solution la plus simple à y=Axy=Axy = Ax où x∈RDx∈RDx \in \mathbb{R}^D, A∈Rk×DA∈Rk×DA \in \mathbb{R}^{k \times D}, et y∈Rky∈Rky \in \mathbb{R}^{k}, k<<Dk<<Dk << D. De cette façon, nous pouvons reconstruire xxx (l'original) en utilisant yyy(la compression), assez rapide. Nous disons quexxxest la …
Je régresse un prédicteur continu sur plus de 60 variables (à la fois continues et catégorielles) en utilisant LASSO (glmnet). En examinant le tracé de trace variable, je remarque que lorsque le log lambda augmente, l'une des variables clés a un coefficient qui augmente réellement. Puis, après un certain point, …
L'apprentissage statistique et ses résultats sont actuellement omniprésents en sciences sociales. Il y a quelques mois, Guido Imbens a déclaré: "LASSO est le nouvel OLS". J'ai un peu étudié le Machine Learning et je sais que son objectif principal est la prédiction. Je suis également d'accord avec la distinction de …
Je me demande la finesse optimale de la grille et quelle est la relation entre la finesse de la grille et le sur-ajustement dans les méthodes de régularisation telles que LASSO, régression de crête ou filet élastique. Supposons que je veuille adapter un modèle de régression utilisant LASSO à un …
J'exécute quelques optimisations avec l'implémentation optim de BFGS. La fonction objectif est en fait un algorithme de calcul, pas seulement des mathématiques. J'ai trouvé que lorsque j'ajoute une pénalité en L1, les choses ralentissent un peu. Pourquoi est-ce possible? Y a-t-il quelque chose dans L1 qui ralentit les choses? Alors, …
J'essaie de déterminer quel alpha utiliser dans ma glmnetfonction, mais le fichier d'aide me dit: Notez que cv.glmnet ne recherche PAS de valeurs pour alpha. Une valeur spécifique doit être fournie, sinon alpha = 1 est supposé par défaut. Si les utilisateurs souhaitent également effectuer une validation croisée alpha, ils …
Si nous sélectionnons différentes valeurs du paramètre , nous pourrions obtenir des solutions avec différents niveaux de rareté. Cela signifie-t-il que le chemin de régularisation est de savoir comment sélectionner la coordonnée qui pourrait obtenir une convergence plus rapide? Je suis un peu confus même si j'ai souvent entendu parler …
J'ai implémenté la version GLMNET de filet élastique pour la régression linéaire avec un autre logiciel que R. J'ai comparé mes résultats avec la fonction R glmnet en mode lasso sur les données du diabète . La sélection des variables est correcte lorsque l'on fait varier la valeur du paramètre …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.