J'ai lu trois principales raisons de normaliser les variables avant quelque chose comme la Lasso
régression:
1) Interprétabilité des coefficients.
2) Capacité de classer l'importance du coefficient en fonction de la magnitude relative des estimations du coefficient après retrait.
3) Pas besoin d'intercepter.
Mais je m'interroge sur le point le plus important. Avons-nous des raisons de penser que la normalisation améliorerait la généralisation hors modèle du modèle? De plus, je m'en fiche si je n'ai pas besoin d'une interception dans mon modèle; en ajouter un ne me fait pas de mal.