Cela est évident en examinant la quantité que le LASSO optimise.
Prenez l'a priori pour que soit Laplace indépendant avec un zéro moyen et une certaine échelle τ .βiτ
Donc .p(β|τ)∝e−12τ∑i|βi|
Le modèle des données est l'hypothèse de régression habituelle .y∼iidN(Xβ,σ2)
f(y|X,β,σ2)∝(σ2)−n/2exp(−12σ2(y−Xβ)T(y−Xβ))
Maintenant, moins deux fois le journal de la partie postérieure est de la forme
1k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Soit et on obtient - 2 log - postérieur deλ=σ2/τ−2log
1k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
L'estimateur MAP pour minimise ce qui précède, ce qui minimiseβ
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
L'estimateur MAP pour est donc LASSO.β
(Ici, j'ai traité comme étant effectivement fixé, mais vous pouvez faire d'autres choses avec lui et toujours faire sortir LASSO.)σ2
Edit: C'est ce que j'obtiens pour composer une réponse hors ligne; Je n'ai pas vu une bonne réponse a déjà été publiée par Andrew. Le mien ne fait vraiment rien de ce qu'il ne fait pas déjà. Je vais laisser le mien pour l'instant car il donne quelques détails supplémentaires sur le développement en termes de .β