La régression pénalisée L1 (alias lasso) est présentée en deux formulations. Soit les deux fonctions objectives
La régression pénalisée L1 (alias lasso) est présentée en deux formulations. Soit les deux fonctions objectives
Réponses:
Les deux formulations sont équivalentes en ce sens que pour chaque valeur de dans la première formulation, il existe une valeur de λ pour la deuxième formulation telle que les deux formulations ont le même minimiseur β .
Voici la justification:
Considérons la formulation du lasso: Soit le minimiseurβ∗etb=| | β∗| | 1. Mon affirmation est que si vous définissezt=bdans la première formulation, alors la solution de la première formulation sera égalementβ∗. Voici la preuve:
Considérez la première formulation Si possibleque cette seconde formulation ont une solution β telle que| | ß | | 1<| | β∗| | 1=b(notez le signe strictement inférieur à). Ensuiteil est facile de voir quef( β )<f(β
Puisque , la condition de mou complémentaire est satisfaite au point de solution β ∗ .
Donc, étant donné une formulation de lasso avec , vous construisez une formulation contrainte en utilisant un t égal à la valeur de la norme l 1 de la solution de lasso. Inversement, étant donné une formulation contrainte avec t , vous trouvez un λ tel que la solution du lasso sera égale à la solution de la formulation contrainte.
(Si vous connaissez les sous-gradients, vous pouvez trouver ce en résolvant l'équation X T ( y - X β ∗ ) = λ z ∗ , où z ∗ ∈ ∂ | | β ∗ | | 1 )
Je pense que l'idée d'elexhobby pour cette preuve est bonne, mais je ne pense pas qu'elle soit complètement correcte.
Pour démontrer que l'existence d'une solution pour la première , de telle sorte que ‖ β ‖ < ‖ β * ‖ conduit à une contradiction, on ne peut supposer la nécessité de ‖ β ‖ = ‖ β * ‖ , non que β = β * .
Je suggère plutôt de procéder comme suit:
then , since we assumed the solution to be unique.
However, it may be the case that the Lasso has multiple solutions. By lemma 1 of arxiv.org/pdf/1206.0313.pdf we know that all of these solutions have the same -norm (and the same minimum value, of course). We set that norm as the constraint for the and proceed.
Let's denote by the set of solutions to , with . Let have a solution, . Then, we have that and therefore . If for some (and hence for all of them) then , which contradicts our assumptions. If for some then is not the set of solutions to . Therefore, every solution to is in , i.e. any solution to is also a solution to . It would remain to prove that the complementary holds too.