“Spektral ayrışma” yoluyla sırt regresyonu kullanan daralma katsayılarının kanıtı


20

Sırt regresyonunun katsayıları nasıl geometrik olarak sıfıra indirdiğini anladım. Üstelik bunu özel "Ortonormal Durum" da nasıl kanıtlayacağımı biliyorum ama bunun genel vakada "Spektral ayrışma" yoluyla nasıl çalıştığı konusunda kafam karıştı.


4
Kafanızın karıştığını söylediniz, ama sorunuz nedir?
whuber

Yanıtlar:


30

Soru, Ridge Regresyonunun katsayı tahminlerini spektral bir ayrışma kullanarak sıfıra doğru çektiğini göstermek istiyor gibi görünüyor. Spektral ayrışma, Tekil Değer Ayrışmasının (SVD) kolay bir sonucu olarak anlaşılabilir . Bu nedenle, bu yazı SVD ile başlar. Basit terimlerle açıklar ve önemli uygulamalarla açıklar. Sonra istenen (cebirsel) gösteriyi sağlar. (Elbette, cebir geometrik gösteriyle aynıdır; sadece farklı bir dilde tutulur.)

Bu cevabın asıl kaynağı regresyon ders notlarımda bulunabilir . Bu sürüm bazı küçük hataları düzeltir.


SVD nedir

P n ile herhangi bir matrisi X yazılabilir X = U D V buradan×pXpn

X=UDV
  1. bir n × p matrisidir.Un×p

    • sütunlarının uzunluğu 1'dir .U1
    • sütunları karşılıklı olarak diktir.U
    • Onlar denir başlıca bileşenleri arasında .X
  2. , bir p × p matrisidir.Vp×p

    • sütunlarının uzunluğu 1'dir .V1
    • sütunları karşılıklı olarak diktir.V
    • Bu da , bir dönme ve R, p .VRp
  3. a,diyagonal p x s matrisi.D p×p

    • Diyagonal elemanlar negatif değildir. Bunlar tekil değerler arasında X .d11,d22,,dppX
    • İstersek, onları büyükten küçüğe sipariş edebiliriz.

Kriteri (1) ve her ikisi de bu (2) Assert ve V olan ortonormal matrisler. Koşullara göre düzgün bir şekilde özetlenebilirlerUV

UU=1p, VV=1p.

Sonuç olarak ( bir dönüşü temsil eder), V V = 1 p de. Bu aşağıdaki Ridge Regresyon türevinde kullanılacaktır.VVV=1p

Bizim için ne yapar

Formülleri basitleştirebilir. Bu hem cebirsel hem de kavramsal olarak çalışır. İşte bazı örnekler.

Normal Denklemler

regresyonunu düşünün, her zamanki gibi ε sıfır beklenti ve sonlu varyans σ 2 olan bir yasaya göre bağımsız ve özdeş olarak dağılmıştır . Normal Denklemler ile en küçük kareler çözüm β = ( X ' X ) - 1 x ' y . SVD'nin uygulanması ve ortaya çıkan cebirsel karışıklığın basitleştirilmesi (ki bu kolay) güzel bir fikir sağlar:y=Xβ+εεσ2

β^=(XX)1Xy.

(XX)1X=((UDV)(UDV))1(UDV)=(VDUUDV)1(VDU)=VD2VVDU=VD1U.

Bu arasındaki tek fark, elemanlarının tanıma değerleri olmasıdır D kullanılır! Diğer bir deyişle, "denklemi" y = x β "baş aşağı" ile çözülmektedir X : bu sözde ters kaldırır rotasyonlar , U ve V ' (sadece bunları değiştirilmesi ile) ve Undoes (temsil çarpma D ) ayrı ayrı her bir prensipte yön.X=VDUDy=XβXUVD

İleride, fark bu tahminler "döndürülmüş" β tepkileri "döndürülmüş" doğrusal kombinasyonları U ' y . Katsayıları (pozitif olarak) çapraz elemanların tersidir D için eşit d - 1 ı i .Vβ^UyDdii1

Katsayı tahminlerinin kovaryansı

Hatırlayın tahminlerinin kovaryans olduğu SVD kullanarak, bu olur σ 2 ( V D 2 V ' ) - 1 = σ 2 V D - 2 V ' . Diğer bir deyişle, kovaryans , her biri d 2 i i değişkenine sahip k dik değişkenininki gibi davranır.

Cov(β^)=σ2(XX)1.
σ2(VD2V)1=σ2VD2V.
k dii2, Olmuştur ki döndürülmüş .Rk

Hat matrisi

Şapka matrisi Önceki sonuç sayesinde H = ( U D V ) ( V D - 1 U ) = U U olarak yeniden yazabiliriz . Basit!

H=X(XX)1X.
H=(UDV)(VD1U)=UU.

Özanaliz (spektral ayrışma)

XX=VDUUDV=VD2V
XX=UDVVDU=UD2U,
  • XXXX
  • VXX
  • UXX

SVD, eşdoğrusallık sorunlarını teşhis edebilir ve çözebilir.

Regresörlere yaklaşmak

UDVUy

Ridge Regresyon

XyXλ>0

β^R=(XX+λ)1Xy=(VD2V+λ1p)1VDUy=(VD2V+λVV)1VDUy=(V(D2+λ)V)1VDUy=V(D2+λ)1VVDUy=V(D2+λ)1DUy.

β^D1=D2D(D2+λ)1DD2/(D2+λ)λ>0


Vβ^RUydii1dii2/(dii2+λ)λβ^R

dii1


1
@Glen_b Bu iyi bir nokta: Hangi fraksiyonu düşündüğümü açıkça belirtmeliydim! Bunu düzeltirim.
whuber

1
UU=1pU11=1VV=1pVV1(V1)(V1)=1pV1=VVV=(V)V=1p

1
@Vimal İyi öneri için teşekkür ederim. Şimdi regresyon modelinin tanıtıldığı "Normal Denklemler" bölümüne bir açıklama ekledim.
whuber

1
X
VDU=X=X=UDV.
U=VX

1
y^
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.