Lasso cezası neden iki kat üstel (Laplace) ile eşdeğerdir?


27

I regresyon parametre vektör Lasso Tahmin, referans bir dizi okuma posterior moduna karşılık gelir her biri için önceden dağılımı olan (aynı zamanda Laplace dağılımı olarak da bilinir), bir çift üstel dağılımıdır.BBBi

Bunu kanıtlamaya çalışıyorum, birisi detayları çözebilir mi?


@ user777 Bir süredir o kitabı okudum. İlgili bir şey bulunamadı.
Wintermute

Yanıtlar:


30

Basit olması için , değişkeninin değişken bir gözlemini düşünelim ; Y

Y|μ,σ2N(μ,σ2),

μLaplace(λ) ve uygunsuz önceki .f(σ)1σ>0

Daha sonra ortak yoğunluğu ile orantılı olan Y,μ,σ2

f(Y,μ,σ2|λ)1σexp((yμ)2σ2)×2λeλ|μ|.

Bir günlük almak ve , \ log f içermeyen terimleri silmek f (Y, \ mu, \ sigma ^ 2) = - \ frac {1} {\ sigma ^ 2} \ Vert y- \ mu \ Vert_2 ^ 2 - \ lambda \ vert \ mu \ vert. \ dört (1)log f ( Y , μ , σ 2 ) = - 1μ

logf(Y,μ,σ2)=1σ2yμ22λ|μ|.(1)

Bu nedenle, (1) 'in maksimum değeri bir MAP tahmini olacaktır ve gerçekten \ tilde \ lambda = \ lambda \ sigma ^ 2' ı yeniden karşılaştırdıktan sonra Kement problemidir λ~=λσ2.

Regresyona verilen uzatma açıktır - Normal olasılıkta ile değiştirin ve önceliğini beta'da bağımsız bir laplace dağılım dizisi olarak ayarlayın .X βμXβ( λ )β(λ)


25

Bu, LASSO'nun optimize ettiği miktarın incelenmesiyle açıktır.

nin bağımsız sıfır olması için alın; ortalama sıfır ve bir miktar . τβiτ

Öyleyse .p(β|τ)e12τi|βi|

Verinin modeli normal regresyon varsayımı .yiidN(Xβ,σ2)

f(y|X,β,σ2)(σ2)n/2exp(12σ2(yXβ)T(yXβ))

Şimdi eksi iki kere posterin logu formdadır.

1k(σ2,τ,n,p)+ 1σ2(yXβ)T(yXβ)+1τi|βi|

Let ve elde arasında -posterior- 2 logλ=σ2/τ2log

1k(σ2,λ,n,p)+ 1σ2[(yXβ)T(yXβ)+λi|βi|]

için MAP tahmincisi yukarıdakileri en aza indirir;β

S=(yXβ)T(yXβ)+λi|βi|

Yani için MAP tahmincisi LASSO.β

(Burada 'yi etkili bir şekilde düzelttim ancak başka şeyler de yapabilir ve yine de LASSO'yu çıkarabilirsiniz.)σ2

Düzenleme: Bir çizgi kapalı cevap oluşturmak için bu alırım; Andrew tarafından zaten iyi bir cevap geldiğini görmedim. Benimki gerçekten yapmadığı hiçbir şeyi yapmıyor. Şimdilik benimkini bırakacağım çünkü bu gelişme konusunda birkaç ayrıntı daha veriyor .β


1
Cevabınızda ve Andrew'da bir fark var gibi görünüyor. Cevabınız düzenleyicinin doğru biçimine sahip: , Andrew iseBurada, doğrusal regresyonda, . λ | μ | μ = X βλβ1λ|μ|μ=Xβ
Alex R.,

2
@AlexR Ben Andrew'un cevabında mis yanlış yorumladığını düşünüyorum. Μ sadece bir kesişme olan bir regresyonda bir karşılık gelir, bir regresyonda değil ; Aynı argüman büyük vaka için de geçerlidir (cevabımdaki paralelliklere dikkat edin) ancak basit durumda takip etmek daha kolaydır. Andrew’un cevabı esasen doğrudur, ancak bütün noktaları orijinal soruya bağlamaz, okuyucunun doldurması için küçük bir miktar bırakır. ve o tamamen X ββ0Xβ
keneyi
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.