OLS kullanarak artıklardaki hatalar azaltılırken eğim neden her zaman tam olarak 1'dir?


10

R'deki bazı basit simülasyonları kullanarak hatalar ve artıklar arasındaki ilişkiyi deniyordum. Bulduğum bir şey, örnek boyutuna veya hata varyansına bakılmaksızın , modele uyduğunuzda eğim için her zaman tam olarak elde ediyorum.1

errorsβ0+β1×residuals

İşte yaptığım simülasyon:

n <- 10 
s <- 2.7 

x <- rnorm(n) 
e <- rnorm(n,sd=s)
y <- 0.3 + 1.2*x + e

model <- lm(y ~ x) 
r <- model$res 

summary( lm(e ~ r) )

eve rküçük örnekler için bile yüksek (ancak mükemmel değil) korelasyonludur, ancak bunun neden otomatik olarak gerçekleştiğini anlayamıyorum. Matematiksel veya geometrik bir açıklama takdir edilecektir.


5
OXY düzlem üçgeninde, OX tabanı ile, YO ve XY kenarlarının rakımları üçgenin kendisinin rakımıdır. Amacıyla, bu rakımlar katsayıları tarafından verilir lm(y~r), lm(e~r)ve lm(r~r)bu nedenle tüm eşit olmalıdır. İkincisi açıkça . Görmek için bu komutların üçünü de deneyin. Son bir iş yapmak için size bir kopyasını oluşturmak zorunda gibi . Regresyonun geometrik diyagramları hakkında daha fazla bilgi için bkz. Stats.stackexchange.com/a/113207 . 1Rrs<-r;lm(r~s)
whuber

1
Teşekkürler @whuber. Cevabı kabul edebilmem için bir cevaptan daha fazlasını mı yapmak istersiniz, ya da belki bunu bir kopya olarak işaretlemek ister misiniz?
GoF_Logistic

1
Bunun bir kopya olduğunu sanmıyorum, bu yüzden yorumu bir cevaba genişlettim.
whuber

Yanıtlar:


11

whuber'ın cevabı harika! (+1) Sorunu bana en çok tanıyan notasyonu kullanarak çözdüm ve (daha az ilginç, daha rutin) türetmenin buraya dahil edilmeye değer olabileceğini düşündüm.

Let , regresyon modeli için ve gürültü. Daha sonra, sütunlarına karşı regresyonunun normal denklemleri tahminlerBu nedenle regresyon artıkları yer alır için .X R , n x s ε y x x T ( y - x β ) = 0 , β = ( X , T x ) - 1 x T y . r = Y - X β = ( I - H ) Y = ( I - Hy=Xβ+ϵXRn×pϵyXXT(yXβ^)=0,

β^=(XTX)1XTy.
r=yXβ^=(IH)y=(IH)ϵ,
H=X(XTX)1XT

Gerileme ile tarafından verilen bir tahmini eğim sonuçları çünkü simetrik ve idempotent ve neredeyse kesinlikle.ϵr

(rTr)1rTϵ=([(IH)ϵ]T[(IH)ϵ])1[(IH)ϵ]Tϵ=ϵT(IH)TϵϵT(IH)T(IH)ϵ=ϵT(IH)ϵϵT(IH)ϵ=1,
IHϵim(X)

Ayrıca, bu argüman, eş değişkenler dikey olduğundan (yani , normal denklemlerden) bir kesişim orijinal regresyona dahil edilirse, artıklar üzerindeki hataların gerilemesini gerçekleştirdiğimizde bir kesişme eklediğimizde de geçerlidir. ).1Tr=0


+1 Bir çözümün dikkatli ve net bir şekilde çalıştığını görmek her zaman güzeldir.
whuber

11

Herhangi bir kavramsal (veya pratik) genellik kaybı olmadan, önce sabiti "Tam değişkenler nasıl kontrol edilir" bölümünde açıklandığı gibi değişkenlerden kaldırın . Let , geri çekici olabilir hata, , yanıt en küçük kareler tahmin ve artıkları. Tüm bu vektörler aynı düzlemde yer alır ve resimlerini çizmemize izin verir. Durum şu şekilde yapılabilir, burada başlangıç ​​noktasını belirler:xeY=βx+ebβr=YbxO

şekil

Bu resim ile başlayıp üretmek için hatasını ekleyerek oluşturulmuştur . İrtifa daha sonra tabana düştü ve en küçük kareler tahmini karşılandı . Yükseklik, artık vektörüdür ve bu nedenle olarak etiketlenmiştir .e Y b x Y - b x rβxeYbxYbxr

Üçgenin tabanı regresör vektörüne paraleldir . ve taraflarının rakımları üçgenin kendisinin rakımıdır. Tanım olarak, tortusal tabana diktir: bu nedenle, tabana uzak mesafeler üzerine çıkıntı ile bulunabilir . Böylece üçgenin yüksekliği üç yoldan herhangi birine bulunabilir: gerileme karşı (yüksekliğini bulmak ); gerileme karşı (yüksekliğine bulma ) veya gerileme karşı (yüksekliğini bulmakO Y ( β x ) Y r r Y r Y e r e r r r 1xOY(βx)YrrYrYererrr ). Üç değerin hepsi eşit olmalıdır (bu regresyonları çalıştırarak kontrol edebileceğiniz gibi). İkincisi açıkça , QED'dir .1


Cebiri tercih edenler için bu geometrik analizi zarif bir cebirsel gösteriye dönüştürebiliriz. Bunun gözlemleyin , ve tüm uyumlu modülo tarafından üretilen bölme odası olan . Bu nedenle, herhangi bir boşluk ortogonal içine eşit çıkıntıları olmalıdır örneğin tarafından oluşturulan bir şekilde, projeksiyonu, katsayısı , QED . (İstatistiksel olarak, her üç ifadede de bileşenini "çıkarırız" ve her durumda bırakırız.)e = r + ( β - b ) x Y = e + β x = r + ( 2 β - b ) x x x r r 1 x rre=r+(βb)xY=e+βx=r+(2βb)xxxrr1xr

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.