Düzenli doğrusal ve RKHS regresyonu


9

RKHS regresyonunda regülasyon ile lineer regresyon arasındaki farkı inceliyorum, ancak ikisi arasındaki önemli farkı kavramakta zorlanıyorum.

Verilen giriş-çıkış çiftleri , bir işlev tahmin etmek isteyen aşağıdaki gibi ; burada bir çekirdek işlevidir. katsayıları çözülerek bulunabilir. ; burada, gösterimde bazı kötüye kullanımlarla , çekirdek matrisi K'nın i, j 'girişi olan {\ displaystyle K (x_ {ı}, x_ {j})} . Bu, \ begin {equation} \ alpha ^ * = (K + \ lambda nI) ^ {- 1} Y verir. \ ucu {denklem}(xi,yi)f()

f(x)u(x)=i=1mαiK(x,xi),
K(,)αm
minαRn1nYKαRn2+λαTKα,
i,jKK(xi,xj)
α=(K+λnI)1Y.
Alternatif olarak, sorunu normal bir sırt regresyonu / doğrusal regresyon problemi olarak ele alabiliriz:
minαRn1nYKαRn2+λαTα,
çözümü
α=(KTK+λnI)1KTY.

Bu iki yaklaşım ve çözümleri arasındaki önemli fark nedir?



@MThQ - 'Normal' sırt regresyonu tanımınız hala ikili içinde çalışmıyor mu? Sadece normal sırt regresyonunun (açık özellik gösteriminin yapıldığı) ilkelde çalıştığı varsayıldığını açıklığa kavuşturmak için.
rnoodle

Yanıtlar:


5

Optimizasyon problemlerini yazarken muhtemelen fark ettiğiniz gibi, minimizasyondaki tek fark, Hilbert normunun cezalandırma için kullanmasıdır. Yani, 'büyük' ​​değerlerinin cezalandırma amacıyla ne olduğunu ölçmek . RKHS ayarında, RKHS iç ürünü, , sırt regresyonu Öklid normuna göre cezalandırılmaktadır.ααtKα

İlginç bir teorik sonuç, her yöntemin üreyen çekirdek spektrumunu nasıl etkilediğidir . RKHS teorisi ile, simetrik pozitif kesin olduğuna sahibiz . Spektral teoremle, ; burada , öz değerlerin köşegen matrisidir ve , özvektörlerin ortonormal matrisidir. Sonuç olarak, RKHS ayarında Bu arada, Ridge regresyon ayarında simetriyle, KKK=UtDUDU

(K+λnben)-1Y=[Ut(D+λnben)U]-1Y=Ut[D+λnben]-1UY.
KtK=K2
(K2+λnben)-1KY=[Ut(D2+λnben)U]-1KY=Ut[D2+λnben]-1UKY=Ut[D2+λnben]-1DUY=Ut[D+λnD-1]-1UY.
spektrumu olsun olabilir . RKHS regresyonunda, özdeğerler ile stabilize edilir . Ridge regresyonunda, . Sonuç olarak, karşılık gelen daha , Ridge daha büyük bir değer eklerken, RKHS özdeğerleri eşit olarak değiştirir .Kν1,...,νnνbenνben+λnνbenνben+λn/νbenνben

Çekirdek seçimine bağlı olarak, için iki tahmin birbirine yakın veya birbirinden uzak olabilir. Operatör normunda mesafe Ancak, bu yine de belirli bir için sınırlıdırα

αRKHS-αçıkıntı2=birRKHSY-birçıkıntıY2[D+λnben]-1-[D+λnD-1]-1Y2maksimumben=1,...,n{|(νben+λn)-1-(νben+λn/νben)-1|}Y2maksimumben=1,...,n{λn|1-νben|(νben+λn)(νben2+λn)}Y2
Y, bu nedenle iki tahminciniz keyfi olarak birbirinden ayrılamaz. Bu nedenle, çekirdeğiniz kimliğe yakınsa, yaklaşımlarda büyük olasılıkla çok az fark olacaktır. Çekirdekleriniz çok farklıysa, iki yaklaşım yine de benzer sonuçlara yol açabilir.

Uygulamada, belirli bir durum için birinin diğerinden daha iyi olup olmadığını kesin olarak söylemek zor. Verileri çekirdek işlevi açısından temsil ederken, kare hatası açısından en aza indirdiğimiz için, karşılık gelen Hilbert işlev alanından en iyi regresyon eğrisini etkili bir şekilde seçiyoruz. Bu nedenle, RKHS iç ürününe ilişkin cezalandırma devam etmek için doğal bir yol gibi görünmektedir.


1
Bunun için bir referansınız var mı?
rnoodle
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.