Sırt regresyonunun katsayıları nasıl geometrik olarak sıfıra indirdiğini anladım. Üstelik bunu özel "Ortonormal Durum" da nasıl kanıtlayacağımı biliyorum ama bunun genel vakada "Spektral ayrışma" yoluyla nasıl çalıştığı konusunda kafam karıştı.
Sırt regresyonunun katsayıları nasıl geometrik olarak sıfıra indirdiğini anladım. Üstelik bunu özel "Ortonormal Durum" da nasıl kanıtlayacağımı biliyorum ama bunun genel vakada "Spektral ayrışma" yoluyla nasıl çalıştığı konusunda kafam karıştı.
Yanıtlar:
Soru, Ridge Regresyonunun katsayı tahminlerini spektral bir ayrışma kullanarak sıfıra doğru çektiğini göstermek istiyor gibi görünüyor. Spektral ayrışma, Tekil Değer Ayrışmasının (SVD) kolay bir sonucu olarak anlaşılabilir . Bu nedenle, bu yazı SVD ile başlar. Basit terimlerle açıklar ve önemli uygulamalarla açıklar. Sonra istenen (cebirsel) gösteriyi sağlar. (Elbette, cebir geometrik gösteriyle aynıdır; sadece farklı bir dilde tutulur.)
Bu cevabın asıl kaynağı regresyon ders notlarımda bulunabilir . Bu sürüm bazı küçük hataları düzeltir.
P ≤ n ile herhangi bir matrisi X yazılabilir X = U D V ′ burada
bir n × p matrisidir.
, bir p × p matrisidir.
a,diyagonal p x s matrisi.
Kriteri (1) ve her ikisi de bu (2) Assert ve V olan ortonormal matrisler. Koşullara göre düzgün bir şekilde özetlenebilirler
Sonuç olarak ( bir dönüşü temsil eder), V V ′ = 1 p de. Bu aşağıdaki Ridge Regresyon türevinde kullanılacaktır.
Formülleri basitleştirebilir. Bu hem cebirsel hem de kavramsal olarak çalışır. İşte bazı örnekler.
regresyonunu düşünün, her zamanki gibi ε sıfır beklenti ve sonlu varyans σ 2 olan bir yasaya göre bağımsız ve özdeş olarak dağılmıştır . Normal Denklemler ile en küçük kareler çözüm β = ( X ' X ) - 1 x ' y . SVD'nin uygulanması ve ortaya çıkan cebirsel karışıklığın basitleştirilmesi (ki bu kolay) güzel bir fikir sağlar:
Bu arasındaki tek fark, elemanlarının tanıma değerleri olmasıdır D kullanılır! Diğer bir deyişle, "denklemi" y = x β "baş aşağı" ile çözülmektedir X : bu sözde ters kaldırır rotasyonlar , U ve V ' (sadece bunları değiştirilmesi ile) ve Undoes (temsil çarpma D ) ayrı ayrı her bir prensipte yön.
İleride, fark bu tahminler "döndürülmüş" β tepkileri "döndürülmüş" doğrusal kombinasyonları U ' y . Katsayıları (pozitif olarak) çapraz elemanların tersidir D için eşit d - 1 ı i .
Hatırlayın tahminlerinin kovaryans olduğu SVD kullanarak, bu olur σ 2 ( V D 2 V ' ) - 1 = σ 2 V D - 2 V ' . Diğer bir deyişle, kovaryans , her biri d 2 i i değişkenine sahip k dik değişkenininki gibi davranır.
Şapka matrisi Önceki sonuç sayesinde H = ( U D V ′ ) ( V D - 1 U ′ ) = U U ′ olarak yeniden yazabiliriz . Basit!
SVD, eşdoğrusallık sorunlarını teşhis edebilir ve çözebilir.