Gardez à l'esprit que la régression de crête ne peut pas mettre à zéro les coefficients; ainsi, vous finissez par inclure tous les coefficients du modèle ou aucun d'entre eux. En revanche, LASSO effectue à la fois le retrait de paramètre et la sélection de variable automatiquement. Si certaines de vos covariables sont fortement corrélées, vous voudrez peut-être utiliser Elastic Net [3] au lieu de LASSO.
Personnellement, je recommanderais d’utiliser la Garotte Non Négative (NNG) [1] car elle est cohérente en termes d’estimation et de sélection de variables [2]. Contrairement à LASSO et à la régression de crête, NNG nécessite une estimation initiale qui est ensuite réduite à l'origine. Dans le document d'origine, Breiman recommande la solution des moindres carrés pour l'estimation initiale (vous pouvez toutefois vouloir lancer la recherche à partir d'une solution de régression par arête et utiliser un paramètre tel que GCV pour sélectionner le paramètre de pénalité).
En termes de logiciels disponibles, j'ai implémenté le NNG d'origine dans MATLAB (basé sur le code FORTRAN d'origine de Breiman). Vous pouvez le télécharger à partir de:
http://www.emakalic.org/blog/wp-content/uploads/2010/04/nngarotte.zip
BTW, si vous préférez une solution bayésienne, consultez [4,5].
Références:
[1] Breiman, L. Meilleure régression de sous-ensembles utilisant le non-négatif Garrote Technometrics, 1995, 37, 373-384.
[2] Yuan, M. et Lin, Y. Sur l'estimateur non négatif à la garrotte, Journal de la Société royale de statistique (série B), 2007, 69, 143-161.
[3] Zou, H. & Hastie, T. Régularisation et sélection de variables via le réseau élastique de la Société royale de statistique (série B), 2005, 67, 301-320.
[4] Park, T. et Casella, G. Journal bayésien de lasso de l'association américaine de statistique, 2008, 103, 681-686.
[5] Kyung, M .; Gill, J .; Ghosh, M. et Casella, G. Régression pénalisée, erreurs types et analyse bayésienne bayésienne de Lassos, 2010, 5, 369-412