Dies wird durch die Überprüfung der Menge deutlich, die der LASSO optimiert.
Nehmen Sie den Prior für als unabhängiges Laplace mit mittlerer Null und einer gewissen Skalierung . τβichτ
Also .p ( β| τ) ∝ e- 12 τ∑ich| βich|
Das Modell für die Daten ist die übliche Regressionsannahme .y∼iidN( Xβ, σ2)
f( y | X , β , σ2) ∝ ( σ2)- n / 2exp( - 12 σ2( y - X β )T( Y - X β ) )
Jetzt ist minus das Doppelte des Logbuchs des Seitenzahns von der Form
1k ( σ2, τ, n , p ) + 1σ2( y - X β )T( Y - X β ) + 1τ∑ich| βich|
Lassen Sie und wir erhalten -posterior von- 2 logλ = σ2/ τ- 2 log
1k ( σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
Der MAP-Schätzer für minimiert das oben Gesagte, wodurch es minimiert wirdβ
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
Der MAP-Schätzer für ist also LASSO.β
(Hier habe ich als effektiv behoben behandelt, aber Sie können andere Dinge damit tun und trotzdem LASSO herausbringen.)σ2
Bearbeiten: Das ist, was ich zum Verfassen einer Antwort offline erhalten; Ich habe keine gute Antwort gesehen, die bereits von Andrew gepostet wurde. Meins tut wirklich nichts, was er nicht schon tut. Ich lasse meins vorerst, da es ein paar Details zur Entwicklung in Bezug auf .β