Tikhonov normalizasyonu Ridge Regression ile aynı mı?


Yanıtlar:


47

Tikhonov regularizarization ridge regresyonundan daha büyük bir set. İşte tam olarak nasıl farklı olduklarını hecelemek için girişimlerim.

Bilinen bir matris A ve vektörü için b, şöyle bir vektör bulmak istediğimizi varsayalım x:

Ax=b .

Standart yaklaşım sıradan en küçük kareler doğrusal regresyondur. Bununla birlikte, eğer hiçbir x denklemi karşılamazsa veya birden fazla x - bu çözüm benzersiz değildir - sorunun kötü olduğu söylenir. Sıradan en küçük kareler, şu şekilde kompakt olarak yazılabilecek kare artıklarının toplamını en aza indirmeyi amaçlar:

Axb2

nerede öklidyen norm. İle gösterilen bir çözüm, gösterim matriste x , aşağıdaki eşitlikle verilir:x^

x^=(ATA)1ATb

Tikhonov Düzenlemesi en aza indirdi

Axb2+Γx2

uygun seçilmiş bazı Tikhonov matrisi için, . İle gösterilen bir açık matris form çözüm, x , aşağıdaki eşitlikle verilir:Γx^

x^=(ATA+ΓTΓ)1ATb

Düzenlemenin etkisi matris ölçeği ile değişebilir . İçin y = 0 , bu (A kaydıyla unregularized en küçük kareler çözeltiye azaltan T A) -1 bulunmaktadır.ΓΓ=0

Tipik olarak, sırt regresyonu için , Tikhonov normalizasyonundan iki çıkış açıklanmaktadır. İlk olarak, Tikhonov matrisi, kimlik matrisinin bir katıyla değiştirildi

,Γ=αI

Daha küçük norm, yani çözeltilerin tercih veren norm. Daha sonra Γ T Γ olur α 2 ı gidenL2ΓTΓα2I

x^=(ATA+α2I)1ATb

Son olarak, sırt regresyonu için, tipik olarak varsayılmaktadır değişkenler böylece ölçeklenir X , T x bir bağıntı matrisinin şekline sahiptir. ve X, T B arasındaki korelasyon vektörü X değişkenleri ve b yol açanAXTXXTbxb

x^=(XTX+α2I)1XTb

Bu formda, Lagrange çarpanı genellikle k , λ veya başka bir sembol ile değiştirildiğini ancak λ 0 özelliğini koruduğunu unutmayın.α2kλλ0

Bu cevabı formüle ederken, Wikipedia’dan ve Ridge’in transfer fonksiyonu ağırlıklarını tahmin etmekten serbestçe borçlanmayı kabul ediyorum.


10
(+1) Bütünlük için, pratik uygulamada düzenli sistemin tipik olarak [ A α Γ ] x [ b 0 ] şeklinde yazıldığından bahsetmekte fayda vardır. (örn ile QR / SVD sonra en küçük kareler sorun doğrusal standart olarak çözülebilir A açıkça, normal denklemler oluşturmadan). [AαΓ]x[b0]A^xb^A^
GeoMatt22

İyi bir nokta. Sonra ekleyeceğim.
Carl,

Düzleştirme çizgileri ve benzeri temel genişleme yöntemleri, Tikhonov normalleşmesinin bir alt kümesi midir?
Sycorax, Reinstate Monica'nın

@Sycorax Öyle beklemiyorum. Örneğin, bir B-spline türevlerini bitiş noktalarında sıfıra ayarlayacak ve spline türevlerini ve büyüklüklerini bitiş noktaları arasındaki verilerle eşleştirecektir. Tikhonov düzenlenmesi, uyum eğimini değiştirerek söylediğiniz parametre hatasını en aza indirir. Yani, farklı şeyler.
Carl

Ayrıca Tychonov regülarizasyonu (? Ayrılabilir) Hilbert alanlar için rasgele boyutlarda bir formülasyona sahiptir
AIM_BLB

23

Carl, Tikhonov düzenlenmesi ile sırt regresyonu arasındaki matematiksel farklılıkları güzel bir şekilde açıklayan kapsamlı bir cevap verdi. Buradaki tarihsel tartışmadan ilham alarak , daha genel Tikhonov çerçevesinin ne kadar faydalı olabileceğini gösteren kısa bir örnek eklemenin faydalı olabileceğini düşündüm.

İlk önce bağlam hakkında kısa bir not. Ridge regresyonu istatistiklerde ortaya çıkmıştır ve istatistikleme ve makine öğreniminde düzenleme artık yaygınlaşırken, Tikhonov'un yaklaşımı başlangıçta model tabanlı veri asimilasyonunda (özellikle jeofizikte ) ortaya çıkan ters problemlerle motive olmuştur . Aşağıdaki sadeleştirilmiş örnek bu kategoridedir ( paleoiklim rekonstrüksiyonları için daha karmaşık versiyonlar kullanılmaktadır ).


Günümüzde u [ x , t = T ] günlük ölçümlerine dayanarak, sıcaklıklarını yeniden yapılandırmak istediğimizi düşünün . Basitleştirilmiş modelimizde, sıcaklığın 1D'deki u t = u x x ısı denklemine göre evrimsel sınır koşullarında u [ x + L , t ] = u [ x , t ] A basit (açık) olarak arttığını varsayacağız.u[x,t=0]u[x,t=T]

ut=uxx
u[x+L,t]=u[x,t]
sonlu fark farklı bir model yaklaşımı açar Matematiksel olarak, evrim matrisi A Elimizdeki bu yüzden, ters çevrilebilir olduğu u t = A - 1 u t + 1 Ancaksayısal olarakaralık süresi ise, zorluklar ortaya çıkacaktırTçok uzun.
ΔuΔt=LuΔx2ut+1=Aut
A
ut=A1ut+1
T

Tikhonov regülarizasyonu çözerek bu sorunu çözebilir

Autut+1ωLut0
ω21uxx

Aşağıda sonuçların bir karşılaştırması var:

Tikhonov vs. Checkerboard

u0ufwdu0uinvureg is able to recover u0 with quite good accuracy.

Note that in this example, ridge regression would always push our solution towards an "ice age" (i.e. uniform zero temperatures). Tikhonov regression allows us a more flexible physically-based prior constraint: Here our penalty essentially says the reconstruction u should be only slowly evolving, i.e. ut0.


Matlab code for the example is below (can be run online here).

% Tikhonov Regularization Example: Inverse Heat Equation
n=15; t=2e1; w=1e-2; % grid size, # time steps, regularization
L=toeplitz(sparse([-2,1,zeros(1,n-3),1]/2)); % laplacian (periodic BCs)
A=(speye(n)+L)^t; % forward operator (diffusion)
x=(0:n-1)'; u0=sin(2*pi*x/n); % initial condition (periodic & smooth)
ufwd=A*u0; % forward model
uinv=A\ufwd; % inverse model
ureg=[A;w*L]\[ufwd;zeros(n,1)]; % regularized inverse
plot(x,u0,'k.-',x,ufwd,'k:',x,uinv,'r.:',x,ureg,'ro');
set(legend('u_0','u_{fwd}','u_{inv}','u_{reg}'),'box','off');

All compliments warmly received. It is worthwhile mentioning, even if slightly off topic, that both Tikhonov regularization and ridge regression can be used for targeting physical regression targets. (+1)
Carl

2
@Carl this is certainly true. We could even use it here, by switching variables to v=Lu! (In general, any Tikhonov problem with an invertible Tikhonov matrix can be converted to ridge regression.)
GeoMatt22
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.