Це очевидно, перевіривши кількість, яку оптимізує LASSO.
Візьміть за пріоритет незалежний Лаплас із середнім нулем та деякою шкалою τ .βiτ
Тож .p(β|τ)∝e−12τ∑i|βi|
Модель для даних є звичайним припущенням регресії .y∼iidN(Xβ,σ2)
f(y|X,β,σ2)∝(σ2)−n/2exp(−12σ2(y−Xβ)T(y−Xβ))
Тепер мінус удвічі більший за розміром журнал задньої частини
k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Let λ=σ2/τ and we get −2log-posterior of
k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
The MAP estimator for β minimizes the above, which minimizes
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
So the MAP estimator for β is LASSO.
(Here I treated σ2 as effectively fixed but you can do other things with it and still get LASSO coming out.)
Edit: That's what I get for composing an answer off line; I didn't see a good answer was already posted by Andrew. Mine really doesn't do anything his doesn't do already. I'll leave mine for now because it gives a couple more details of the development in terms of β.