Glen_b'nin illüstrasyonunda +1 ve Ridge tahmincisi ile ilgili istatistik yorumları. OPs 1 ve 2) sorularına cevap veren Ridge regresyonuna tamamen matematiksel (lineer cebir) bir pov eklemek istiyorum.
İlk not, bir simetrik pozitif yarı-yarı matris - , örnek kovaryans matrisinin çarpı olduğunu. Dolayısıyla öz-ayrışmaya sahiptirX′Xp×pn
X′X=VDV′,D=⎡⎣⎢⎢d1⋱dp⎤⎦⎥⎥,di≥0
Şimdi, matris inversiyonu özdeğerlerin inversiyonuna karşılık geldiğinden, OLS tahmincisi ( dikkat edin ). Açıkçası bu sadece tüm özdeğerlerin kesinlikle sıfırdan büyük olması durumunda işe yarar, . İçin bu imkansızdır; için bu vardı Biz genellikle ilgileniyoruz - bu genelde doğrudur multicollinearity .(X′X)−1=VD−1V′V′=V−1di>0p≫nn≫p
İstatistikçiler olarak, veriler küçük bozulmaların tahminleri nasıl değiştirdiğini bilmek istiyoruz . Herhangi bir küçük bir değişikliğin, eğer çok küçükse , büyük değişikliklere yol açtığı .Xdi1/didi
Öyleyse Ridge regresyonunun yaptığı, tüm özdeğerleri sıfırdan uzağa taşımaktır.
X′X+λIp=VDV′+λIp=VDV′+λVV′=V(D+λIp)V′,
ki şimdi özdeğerleri . Bu nedenle pozitif bir ceza parametresi seçilmesi matrisi ters çevrilemez kılar - durumunda bile. Ridge regresyonu için, verilerindeki küçük bir değişiklik artık matris inversiyonu üzerindeki son derece dengesiz etkiye sahip değildir.
di+λ≥λ≥0p≫nX
Sayısal kararlılık, ikisi de özdeğerlere pozitif bir sabit eklenmesinin bir sonucu olduğu için sıfıra büzülme ile ilgilidir: küçük bir düzensizlik tersi çok fazla değiştirmez; terimi, ters özdeğerleri olan OLS çözümünden sıfıra daha yakın olan ile çarpıldığından beri kadar küçülür .X0V−1X′y1/(di+λ)1/d