J'ai une question concernant la nécessité d'utiliser des méthodes de sélection d'entités (forêts aléatoires, valeur d'importance des caractéristiques ou méthodes de sélection d'entités univariées, etc.) avant d'exécuter un algorithme d'apprentissage statistique.
Nous savons que pour éviter le sur-ajustement, nous pouvons introduire une pénalité de régularisation sur les vecteurs de poids.
Donc, si je veux faire une régression linéaire, je pourrais introduire les paramètres de régularisation net L2 ou L1 ou même Elastic net. Pour obtenir des solutions éparses, la pénalité L1 aide à la sélection des fonctionnalités.
Ensuite, est-il toujours nécessaire de faire la sélection des fonctionnalités avant d'exécuter la régression de régularisation L1 telle que Lasso?. Techniquement, Lasso m'aide à réduire les fonctionnalités de pénalité L1, alors pourquoi la sélection des fonctionnalités est-elle nécessaire avant d'exécuter l'algo?
J'ai lu un article de recherche disant que faire Anova puis SVM donne de meilleures performances que d'utiliser SVM seul. Maintenant la question est: SVM fait intrinsèquement la régularisation en utilisant la norme L2. Afin de maximiser la marge, il minimise la norme du vecteur de poids. Il fait donc de la régularisation dans sa fonction objective. Ensuite, techniquement, les algorithmes tels que SVM ne devraient pas se soucier des méthodes de sélection des fonctionnalités?. Mais le rapport dit toujours que la sélection des fonctionnalités univariées avant que le SVM normal soit plus puissant.
Quelqu'un avec des pensées?