Réponses:
Si vous appliquez la normalisation (compression dans [0,1]), vous aurez une mesure d'importance relative des variables, mais cela changera l'échelle de vos variables et vous perdrez toute interprétabilité du modèle. L'avantage de la normalisation est que vous pouvez toujours interpréter le modèle comme vous le feriez avec une régression OLS non régularisée (cela a déjà été déjà répondu ici ).
La normalisation est très importante pour les méthodes avec régularisation. En effet, l'échelle des variables affecte la quantité de régularisation qui s'applique à une variable spécifique.
Par exemple, supposons qu'une variable soit à très grande échelle, disons l'ordre des millions et qu'une autre variable soit de 0 à 1. Ensuite, nous pouvons penser que la régularisation aura peu d'effet sur la première variable.
En plus de la normalisation, la normaliser à 0 à 1 ou standardiser les fonctionnalités n'a pas trop d'importance.