1. Düşük dereceli regresyon (RRR) nedir?
Çok değişkenli çoklu doğrusal regresyon, yani bağımsız değişkenleri ve bağımlı değişkenleri olan regresyon düşünün . ve yordayıcı ( ) ve yanıt ( ) veri setlerini merkezlenmesini sağlayın . Daha sonra olağan olağan en küçük kareler (OLS) regresyonu, aşağıdaki maliyet fonksiyonunu en aza indirecek şekilde formüle edilebilir:pqXYn×pn×q
L=∥Y−XB∥2,
burada , regresyon ağırlıklarının bir matrisidir. Çözümü ve kolay Her bağımlı değişken için bir tane olmak üzere ayrı OLS regresyonunun yapılmasının eşdeğer olduğunu görün . p x q B O L S = ( X ⊤ X ) - 1 x ⊤ Y , q,Bp×q
B^OLS=(X⊤X)−1X⊤Y,
q
Azaltılmış dereceli regresyon, bir derece kısıtlaması getirmektedir , yani , ile en aza indirilmelidir , burada , maksimum izin verilen . L sıralaması ( B ) ≤ r r BBLrank(B)≤rrB
2. RRR çözümü nasıl elde edilir?
RRR'nin bir özvektör problemi olarak kullanılabileceği ortaya çıktı. Gerçekten de, OLS'nin sütun alanı üzerinde esasen dik bir çıkıntı olduğu gerçeğini kullanarak, olarak yazabilirizİlk dönem bağımlı değildir ve ikinci dönem donatılmış değerlerin SVD / PCA ile minimize edilebilir . L L = ‖ Y - X, B O L S ‖ 2 + ‖ x B O L S - X oda ‖ 2 . B -Y = X, B O L SXL
L = ∥ Y - X B^O L S∥2+ ∥ X B^O L S- X B ∥2.
BY^= X B^O L S
Özellikle, ilk önce ana eksenleri ise , r -Y B R, R, R ' = B O L S u r u ⊤ r .UrrY^
B^R R R= B^O L SUrU⊤r.
3. RRR ne için iyidir?
RRR'yi kullanmak için iki neden olabilir.
İlk olarak, bir düzenleme için kullanabilirsiniz. Sırt regresyonuna (RR), kemente vb. Benzer şekilde RRR, bazı "büzülme" cezaları verir . Uygun seviye çapraz doğrulama yoluyla bulunabilir. Tecrübelerime göre, RRR OLS'den daha iyi performans gösteriyor ancak RR'ye kaybetme eğiliminde. Bununla birlikte, RRR + RR yalnız RR'den (biraz) daha iyi bir performans sergileyebilir. rBr
İkincisi, bir boyutsallık azaltma / veri keşif yöntemi olarak kullanılabilir. Eğer bir sürü tahmin değişkenimiz ve bir sürü bağımlı değişkenimiz varsa, RRR, DV'nin varyansını açıklamak için en iyi işi yapan öngörücü alanda "gizli faktörler" kuracaktır. Daha sonra, bu gizli faktörleri yorumlamaya, bunları çizmeye vb. Deneyebilirsiniz. Bildiğim kadarıyla, bu, RRR'nin artıklık analizi olarak bilindiği ve koordinasyon yöntemleri dedikleri şeyin bir örneği olduğu ekolojide rutin olarak yapılır ( bkz. @ GavinSimpson'ın yanıtı. ).
4. Diğer boyutluluk azaltma yöntemleriyle ilişki
RRR, CCA ve PLS gibi diğer boyutluluk azaltma yöntemleriyle yakından bağlantılıdır. Ben o cevabım biraz örtülü kısmi en küçük kareler, azaltılmış rütbe regresyon ve temel bileşenler regresyon arasındaki bağlantı nedir?
Eğer ve belirleyicisi merkezli (edilmektedir ) ve cevap ( ) veri setleri ve eksen birinci çift için bir nokta ise için ve için , daha sonra bu yöntem aşağıdaki miktarını maksimize:Y, n, x p , n xXYn × pn × qw ∈ RpXv ∈ RqY
P C A :R R R :P L S :C C A :var( X w )var( X, W ) ⋅Corr2( X, W , Y, v ) ⋅ Var( Y v )var( X w ) ⋅ Corr2( X, W , Y, v ) ⋅ Var( Y v ) = Cov2( X, W , Y, V )var( X, W ) ⋅Corr2( X, W , Y, V )
Daha fazla ayrıntı için oraya bakın.
Yaygın doğrusal çok değişkenli yöntemlerin (örneğin PCA, CCA, LDA, - ancak PLS!) RRR olarak nasıl görülebileceğinin ayrıntılı bir tedavisi için bkz. Torre, 2009, Bileşen Analizi için En Küçük Kareler Çerçevesi .
5. Bu bölüm neden Hastie ve ark. çok kafa karıştırıcı?
Hastie ve diğ. biraz farklı bir şeye atıfta bulunmak için RRR terimini kullanın! Bunun yerine kayıp fonksiyonu kullanarak kullandıkları 3.68 formüllerinde görüldüğü gibi. Bu , temel olarak bağımlı değişkenleri beyazlatmak için bir beyazlatma faktörünü kayıp fonksiyonuna dahil eder. Yukarıdaki CCA ve RRR arasındaki karşılaştırmaya bakarsanız, beyazlatıldığında farkın kaybolduğunu fark edeceksiniz . Peki, Hastie ve ark. çağrı RRR aslında kılık değiştirmiş CCA (ve gerçekten, onların 3,69 bakın).
L = ∥ Y - X B ∥2,
L = ∥ ( Y - X, B ) ( Y⊤Y )- 1 / 2∥2,
YY
Bunların hiçbiri bu bölümde doğru bir şekilde açıklanmamıştır, dolayısıyla karışıklık.
Daha fazla okuma için Dostça eğiticiye cevabımı veya azaltılmış dereceli regresyona girişimi görün.