Açıklayıcı değişkenlerin sırası, regresyon katsayılarını hesaplarken önemli mi?


24

İlk başta siparişin önemli olmadığını düşündüm, ama sonra çoklu regresyon katsayılarını hesaplamak için gram-schmidt ortogonalizasyon sürecini okudum ve şimdi ikinci düşüncelerim var.

Gram-schmidt işlemine göre, daha sonra açıklayıcı bir değişken diğer değişkenler arasında endekslenir, artık değişken vektörü küçülür, çünkü önceki değişkenlerin artık vektörleri ondan çıkarılır. Sonuç olarak, açıklayıcı değişkenin regresyon katsayısı da daha küçüktür.

Eğer bu doğruysa, söz konusu değişkenin kalıntı vektörü daha önce indekslenmiş olsaydı daha büyük olurdu, çünkü daha az kalıntı vektör ondan çıkarılacaktı. Bu, regresyon katsayısının da daha büyük olacağı anlamına gelir.

Tamam, bu yüzden sorumu açıklığa kavuşturmam istendi. Bu yüzden ilk başta kafamı karıştıran metnin ekran görüntülerini gönderdim. Tamam, işte geliyor.

Anladığım kadarıyla regresyon katsayılarını hesaplamak için en az iki seçenek var. İlk seçenek aşağıdaki ekran görüntüsünde (3,6) belirtilmiştir.

İlk yol

İşte ikinci seçenek (Birden çok ekran görüntüsü kullanmak zorunda kaldım).

İkinci yol

görüntü tanımını buraya girin görüntü tanımını buraya girin

Bir şeyi yanlış okumadığım sürece (ki bu kesinlikle mümkün), ikinci seçeneğin sırası önemli görünüyor. İlk seçenekte fark eder mi? Neden ya da neden olmasın? Yoksa referans çerçevem ​​o kadar berbat bir durum ki bu geçerli bir soru bile değil mi? Ayrıca, tüm bunlar bir şekilde Tip I Toplam Kareler - Tip II Toplam Kareler?

Şimdiden çok teşekkürler, kafam çok karıştı!


1
Katsayıların nasıl hesaplandığını tam olarak prosedürde özetleyebilir misiniz? Gram-schmidt ortogonalizasyonu ve regresyon problemine nasıl uygulanabileceği ile ilgili olarak bildiğim kadarıyla, gs prosedürünü kullanarak regresyondan yararlanabileceğinizi, ancak orijinal katsayılara uymayacağınızı varsayabilirim. Regresyon uygunluğunun sütun boşluğuna projeksiyon olduğunu unutmayın. Sütunları ortogonalize ederseniz, sütunları saran boşluğun ortogonal tabanını elde edersiniz, bu nedenle fit, bu tabanın doğrusal birleşimi ve ayrıca orijinal sütunların doğrusal birleşimi olacaktır. Aynı olacaktır ...
Ocak'ta 13'12, 03:34

ancak katsayılar farklı olacaktır. Bu tamamen normal.
mpiktas

Sanırım kafam karıştı çünkü "İstatistiksel Öğrenmenin Öğeleri" bölümünde gram-schmidt işlemi kullanılarak hesaplanan katsayıların geleneksel işlem kullanılarak hesaplananlarla aynı olacağını düşündüm: B = (X'X) ^ - 1 X'y.
Ryan Zotti

İşlemden bahseden kitaptan alıntı: “Basit regresyonun iki uygulamasının sonucu olarak [katsayıların] tahminini görebiliriz. Adımlar: 1. artık z'nin üretilmesi için x'e 1'de gerileme = x - x ̄1; 2. katsayısı βˆ1 vermek için artık z'ye y gerilemesi Bu tarifname, Algoritma 3.1 'de gösterildiği gibi p girişleri için genelleştirir .. Not: z0,. 2 ortogonaldir, dolayısıyla orada hesaplanan basit regresyon katsayıları aslında çoklu regresyon katsayılarıdır. ”
Ryan Zotti

Buradaki yorumlar bölümüne kopyalayıp yapıştırdığımda biraz karışık oluyor, bu yüzden doğrudan kaynağa bakmak muhtemelen en iyisidir. Stanford'un internet sitesinden ücretsiz olarak erişilebilen "İstatistiksel Öğrenmenin Öğeleri" sayfa 53 - 54: www-stat.stanford.edu/~tibs/ElemStatLearn .
Ryan Zotti

Yanıtlar:


22

Kargaşanın biraz daha basit bir şeyden kaynaklanabileceğine inanıyorum, ancak bazı ilgili konuları gözden geçirmek için iyi bir fırsat sunuyor.

Metin olduğunu Not değil iddia tüm regresyon katsayılarının P olan i olarak ardışık kalıntılar vektörler aracılığıyla hesaplanabilir β i ? =Y , z iβ^i Ama sadece ziyade oson bir, β p , bu şekilde hesaplanabilir!

β^i=?y,zizi2,
β^p

Ardışık ortogonalizasyon düzeni (Gram-Schmidt bir formu) (neredeyse) matrisler çiftini üreten ve G olacak şekilde X = Z GZG Burada Z, bir n x P dik sütunları ile G = ( g i j ) bir p x s üst üçgen. "Neredeyse" diyorum, çünkü algoritma Z'yi sadecesütunların normlarına kadarbelirten, genel olarak bir olmayacak, ancak sütunların normalleştirilmesi ve koordinat matrisine karşılık gelen basit bir ayar yapılmasıyla birim normuna sahip olabileceği içindiyorum. G .

X=ZG,
Zn×pG=(gij)p×pZG

Bu, tabii ki, varsayarsak sıralaması vardır p n , benzersiz en küçük kareler çözelti vektörüdür β bu çözer sistemi X , T x β = X , T yXRn×ppnβ^

XTXβ^=XTy.

İkame izlenerek ve Z, T , Z = I (yapı ile) elde ederiz G , T G β = G , T , Z , T yX=ZGZTZ=I Bu eşdeğerdir

GTGβ^=GTZTy,
Gβ^=ZTy.

Şimdi doğrusal sistemin son sırasına konsantre olun . Son satırda sıfırdan farklı tek elemanı g pG . Yani, o olsun gr p pgppG p p = z olduğunu görmek zor değil (bunu bir anlayış kontrolü olarak doğrulayın!)

gppβ^p=y,zp.
gpp=zpzi

β^i(p1)

gp1,p1β^p1+gp1,pβ^p=zp1,y,
β^p1=gp1,p11zp1,ygp1,p11gp1,pβ^p.
giiβ^i

XX(r)rβ^rβ^ryxr

Genel QR ayrışımları

X

X=QR,
Xβ^
RTRβ^=RTQTy,
Rβ^=QTy.
Rβ^p

Xy^


6

Kitaba baktım ve alıştırma 3.4 gibi tüm regresyon katsayılarını bulmak için GS kullanma kavramını anlamakta yararlı olabilir gibi görünüyor. βjβp

ESL'de Egzersiz 3.4

En küçük kare katsayıların vektörünün, Gram-Schmidt prosedürünün tek bir geçişinden nasıl elde edilebileceğini gösterin. Çözümünüzü QR ayrıştırması açısından temsil edin.X

Çözüm

X

X=ZΓ,
ZzjΓγij=zi,xjzi2
xj=zj+k=0j1γkjzk.

QRX=QRQRQ=ZD1R=DΓDDjj=zj

β^

(XTX)β^=XTy.
QR
(RTQT)(QR)β^=RTQTyRβ^=QTy

R

Rppβ^p=qp,yzpβ^p=zp1zp,yβ^p=zp,yzp2
β^jβ^p1
Rp1,p1β^p1+Rp1,pβ^p=qp1,yzp1β^p1+zp1γp1,pβ^p=zp11zp1,y
β^p1βj

3

Neden denemiyor ve karşılaştırmıyorsunuz? Bir dizi regresyon katsayısı takın, ardından sırayı değiştirin ve tekrar takın ve farklı olup olmadıklarına bakın (olası yuvarlama hatası dışında).

@Mpiktas'ın işaret ettiği gibi, ne yaptığınız tam olarak belli değil.

B(xx)B=(xy)(xx) matrisinde orijinal verilerle . Bu durumda, katsayılar aynı olmalıdır (olası yuvarlama hatasının dışında).

x1x2x1yx2yx1x2yx1x1x2


Ben son paragraf benim karışıklık kaynağına muhtemelen en yakın noktadır - GS yapar sipariş konu edilmiştir. Bende böyle düşünmüştüm. Yine de kafam karıştı, çünkü okuduğum kitabın adı “İstatistiki Öğrenmenin Öğeleri” (serbestçe ulaşılabilen bir Stanford yayını: www-stat.stanford.edu/~tibs/ElemStatLearn ). GS'nin katsayıları hesaplamak için standart yaklaşıma denk olduğunu ileri sürün; yani, B = (X'X) ^ -1 X'y.
Ryan Zotti

Ve söylediklerinizin bir kısmı da beni biraz şaşırtıyor: “B'yi çözmek için GS'yi en küçük kareler denkleminde (x′x) ^ - 1 B = (x′y) kullanarak görebiliyorum. (X′x) matrisindeki GS, orijinal veriler değil. " X'x matrisinin orijinal verileri içerdiğini düşünmüştüm? ... En azından İstatistiksel Öğrenmenin Öğeleri diyor. X'x'teki x'in N'nin p sayısının bir matris olduğu, N'nin girdi sayısı (gözlem) ve p'nin boyut sayısı olduğu yazıyor.
Ryan Zotti,

GS, katsayıları hesaplamak için standart bir prosedür değilse, o zaman collinearity tipik olarak nasıl işlenir? Artıklık (ortaklık) tipik olarak x'ler arasında nasıl dağılır? Koleksiyonculuk geleneksel olarak katsayıları dengesiz yapmaz mı? Sonra GS süreç olduğunu göstermektedir olmaz ise standart süreç? GS süreci de katsayıları dengesiz hale getirdiğinden - daha küçük bir artık vektör katsayısı dengesiz hale getirir.
Ryan Zotti

En azından metnin dediği gibi, "Eğer xp diğer xk'lerin bazılarıyla yüksek oranda korelasyon gösteriyorsa, artık vektör zp sıfıra yakın olacak ve (3.28) den βˆp katsayısı çok dengesiz olacaktır."
Ryan Zotti

2
GS unutmayın olan QR ayrışma şeklidir.
kardinal
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.