En az açı regresyonu korelasyonları monoton olarak azaltıyor ve bağlı tutuyor mu?


9

En az açı regresyonu (LAR) için bir problem çözmeye çalışıyorum. Bu sorunun 3,23 sayfada 97 arasında Hastie vd., İstatistiksel Öğrenme Unsurları, 2. ed. (5. baskı) .

Tüm değişkenler ve cevap ortalama sıfır ve standart sapma bir olan bir regresyon problemi düşünün. Ayrıca her değişkenin yanıtla aynı mutlak korelasyona sahip olduğunu varsayalım:

1N|xj,y|=λ,j=1,...,p

Let en küçük kareler katsayısı üzerindeki ve izin için .β^yXu(α)=αXβ^α[0,1]

Bunu göstermem isteniyor ve bununla ilgili sorunlar yaşıyorum. Not Bu can bu temelde her birinin korelasyon olduğunu söylüyor biz doğru ilerlerken rezidüelleri büyüklük bakımından eşit kalır .

1N|xj,yu(α)|=(1α)λ,j=1,...,p
xju

Ayrıca korelasyonların eşit olduğunu nasıl göstereceğimizi bilmiyorum:

λ(α)=(1α)(1α)2+α(2α)NRSSλ

Herhangi bir işaretçiler büyük mutluluk duyacağız!


2
@Belmont, nedir? Sorununuz hakkında daha fazla bağlam verebilir misiniz? Örneğin, standart LAR özellikli makaleye bağlantı çok yardımcı olacaktır. u(α)
mpiktas

@Belmont, Hastie ve ark., İstatistiksel Öğrenme Unsurları , 2. ed. Bu ödev mi? Öyleyse, bu etiketi ekleyebilirsiniz.
kardinal

@Belmont, @cardinal tam bir cevap verdiğine göre, gelecekte başvurmak üzere LAR'ın gerçekte ne olduğunu belirtebilir misiniz? Cevaptan yola çıkarak, bu, bazı başlangıç ​​kısıtlamaları göz önüne alındığında, en küçük kareler regresyonlarının standart manipülasyonudur. Ciddi bir sebep olmadan bunun için özel bir isim olmamalıdır.
mpiktas

1
@mpiktas, bu garip bir algoritmadır, bu nedenle bir değişkenin modeli normalleştirme yoluna her girdiğinde veya bıraktığında, boyutu (yani kardinalite / boyut) sırasıyla büyür veya küçülür ve "yeni" LS tahmini "aktif" değişkenler. Dışbükey bir optimizasyon problemi olan kement söz konusu olduğunda, prosedür çok etkili bir çözüm elde etmek için KKT koşullarındaki özel yapıyı kullanmaktır . Aynı zamanda, örneğin, IRLS ve Heine-Borel'e dayanan lojistik regresyon için genellemeler de vardır (sonlu adım sayısında yakınsamayı kanıtlamak için)β
kardinal

1
@Belmont -1, yakın zamanda Hastie kitabını satın aldığım için, bunun bir alıştırma olduğunu doğrulayabilirim. Bu yüzden size büyük bir -1 veriyorum, çünkü tüm tanımları bile veremiyorsunuz, referansı bile vermiyorum.
mpiktas

Yanıtlar:


21

Bu sorunun 3,23 sayfada 97 arasında Hastie vd., İstatistiksel Öğrenme Unsurları , 2. ed. (5. baskı) .

Bu sorunun anahtarı, sıradan en küçük karelerin (yani doğrusal regresyon), özellikle de takılan değerlerin ve artıkların dikgenliğinin iyi anlaşılmasıdır.

Ortogonallik lemması : Let olması , tasarım matris yanıt vektörü ve (doğru) parametreleri. Varsayarsak (biz boyunca olacak olan), OLS tahminleri tam sıralaması olan olan . Takılan değerler . Sonra . Yani, takılan değerler artıklara diktir . O zamandan beri takip ediyorXn×pyβXββ^=(XTX)1XTyy^=X(XTX)1XTyy^,yy^=y^T(yy^)=0XT(yy^)=XTyXTX(XTX)1XTy=XTyXTy=0.

Şimdi izin ver xj öyle bir sütun vektörü olun ki xj bu jsütunu X. Varsayılan koşullar:

  • 1Nxj,xj=1 her biri için j, 1Ny,y=1,
  • 1Nxj,1p=1Ny,1p=0 nerede 1p uzunluğunu gösteren bir vektörü belirtir p, ve
  • 1N|xj,y|=λ hepsi için j.

Not o özellikle , son deyimi ortogonalitenin lemmasının aynıdırxj,yy^=0 hepsi için j.


Korelasyonlar bağlı

Şimdi, u(α)=αXβ^=αy^. Yani,

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
ve sağ taraftaki ikinci terim diklik lemması tarafından sıfırdır , yani
1N|xj,yu(α)|=(1α)λ,
istediğiniz gibi. Korelasyonların mutlak değeri sadece
ρ^j(α)=1N|xj,yu(α)|1Nxj,xj1Nyu(α),yu(α)=(1α)λ1Nyu(α),yu(α)

Not : Yukarıdaki sağ taraf aşağıdakilerden bağımsızdırj ve pay, kovaryans ile aynıdır, çünkü tüm xjve y merkezlenmiştir (bu nedenle özellikle ortalamanın çıkarılması gerekmez).

Amaç ne? Gibiαtepki vektörü, sadece ilkinin dahil edilmesinden elde edilen ( sınırlı! ) en küçük kareler çözümüne doğru ilerleyecek şekilde değiştirilir.pparametreler. Bu, aynı zamanda tahmini parametreleri değiştirir, çünkü bunlar (değiştirilmiş) cevap vektörü olan öngörücülerin basit iç ürünleridir. Değişiklik özel bir biçim alır. Bu (büyüklüğünü) belirleyicileri ve modifiye edilmiş tepki (halde işlemi boyunca aynı korelasyonları tutar değeri korelasyon değişiyor). Bunun geometrik olarak ne yaptığını düşünün ve prosedürün adını anlayacaksınız!


(Mutlak) korelasyonun açık formu

Pay zaten gerekli biçimde olduğundan, paydadaki terime odaklanalım. Sahibiz

y-u(α),y-u(α)=(1-α)y+αy-u(α),(1-α)y+αy-u(α).

İçinde değiştirme u(α)=αy^ ve iç ürünün doğrusallığını kullanarak,

yu(α),yu(α)=(1α)2y,y+2α(1α)y,yy^+α2yy^,yy^.

Bunu gözlemleyin

  • y,y=N varsayımla,
  • y,yy^=yy^,yy^+y^,yy^=yy^,yy^Uygulayarak diklik lemma ortasında ikinci dönem (yine); ve,
  • yy^,yy^=RSS tanım olarak.

Tüm bunları bir araya getirdiğimizde,

ρ^j(α)=(1α)λ(1α)2+α(2α)NRSS=(1α)λ(1α)2(1RSSN)+1NRSS

Bir şeyleri sarmak için, 1RSSN=1N(y,y,yy^,yy^)0 ve böylece ρ^j(α) monoton olarak azalıyor α ve ρ^j(α)0 gibi α1.


Özet : Buradaki fikirlere odaklanın . Gerçekten sadece bir tane var. Ortagonalite lemma bizim için neredeyse tüm çalışır. Gerisi sadece cebir, gösterim ve bu son ikisini işe koyma yeteneğidir.


2
@cardinal, +1. Cevap sorudan daha büyüktür.
mpiktas

@cardinal, amazon ya da başka bir sitenin bağlantısını değiştirmek isteyebilirsiniz. Tam kitaba bağlantı vermenin bazı telif hakkı sorunlarına yol açabileceğini düşünüyorum.
mpiktas

3
@mpiktas, hayır. Telif hakkı sorunu yok. Bu kitabın resmi web sitesi. Yazarlar, PDF'yi çevrimiçi olarak serbestçe kullanıma sunmak için Springer'den izin aldı. (Sitedeki bu etkinin notuna bakın.) Sanırım bu fikri Stephen Boyd ve Convex Optimization metninden aldılar . Umarım böyle bir eğilim önümüzdeki birkaç yıl içinde buhar alır. Zevk almak!
kardinal

@cardinal, ooh büyük teşekkürler! Bu yazarlardan çok cömerttir.
mpiktas

@mpiktas, Springer Serisinin İstatistiklerdeki en popüler kitabı. Bir iPad'de iyi görünüyor. Bu bana hatırlatıyor --- Boyd'un metnini de indirmeliyim. Şerefe.
kardinal
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.