Basit doğrusal regresyonda, artıkların varyans formülü nereden geliyor?


21

Kullandığım bir metne göre, kalıntısının varyans formülü şu şekilde verilir:ith

σ2(11n(xix¯)2Sxx)

kalıntı gözlenen değer ile takılan değer arasındaki fark olduğundan inanmak zor buluyorum ; biri farkın varyansını hesaplayacak olsaydı, en azından ortaya çıkan ifadede bazı "artılar" beklerdim. Türetmenin anlaşılmasında herhangi bir yardım takdir edilecektir.ithithith


Metindeki bazı " " işaretlerinin " " işaretleri olarak yanlış oluşturulması (veya yanlış okunması) mümkün müdür ? +
whuber

Bunu düşünmüştüm, ancak metinde iki kez oldu (2 farklı bölüm), bu yüzden olası olmadığını düşündüm. Tabii ki, formülün türetilmesi yardımcı olacaktır! :)
Eric

Negatifler, bir gözlem ile onun takılmış değeri arasındaki pozitif ilişkinin bir sonucudur ve bu da farkın varyansını azaltır.
Glen_b -Reinstate Monica

@Glen Aşağıdaki matris türetmenizle birlikte formülün neden mantıklı olduğunu açıkladığınız için teşekkür ederiz.
Eric

Yanıtlar:


27

Varyansla ilgili "artı" işaretleriyle ilgili sezgi (bağımsız rastgele değişkenlerin farkının varyansını hesaplasak bile, varyanslarını eklediğimizden) doğrudur ancak ölümcül olarak eksiktir: ilgili rastgele değişkenler bağımsız değilse , daha sonra kovaryanslar da söz konusudur - ve kovaryanslar negatif olabilir. Orada bir deyim var neredeyse o (bana ve) OP tarafından olmak "gerektiğini" düşünüldü söz konusu ifadenin gibi ve öyle bir varyans tahmin hatası o göstermek, , burada :y 0 = β 0 + β 1 x 0 + u 0e0=y0y^0y0=β0+β1x0+u0

Var(e0)=σ2(1+1n+(x0x¯)2Sxx)

Öngörü hatasının varyans ve varyans arasındaki önemli bir fark kestirim hatası (kalıntı arasında), tahmin edilen gözlem hata terimi olduğunu tahmin ile bağlantısı olmayan ve değer için, edildi olup kullanılan tahmin edicinin oluşturulması ve tahminlerin hesaplanması, örnek dışı bir değer olması.y0

Her ikisi için de cebir bir noktaya kadar aynı şekilde ilerler ( yerine kullanılarak ), ancak sonra ayrılır. özellikle:i0i

Basit doğrusal regresyonda , , tahmin edicinin varyansı hala Var ( u ı ) = σ 2 β = ( βyi=β0+β1xi+uiVar(ui)=σ2β^=(β^0,β^1)

Var(β^)=σ2(XX)1

Sahibiz

XX=[nxixixi2]

ve bu yüzden

(XX)1=[xi2xixin][nxi2(xi)2]1

Sahibiz

[nxi2(xi)2]=[nxi2n2x¯2]=n[xi2nx¯2]=n(xi2x¯2)nSxx

Yani

(XX)1=[(1/n)xi2x¯x¯1](1/Sxx)

bunun anlamı

Var(β^0)=σ2(1nxi2) (1/Sxx)=σ2nSxx+nx¯2Sxx=σ2(1n+x¯2Sxx)

Var(β^1)=σ2(1/Sxx)

Cov(β^0,β^1)=σ2(x¯/Sxx)

-inci kalıntı olarak tanımlanmıştıri

u^i=yiy^i=(β0β^0)+(β1β^1)xi+ui

Gerçek katsayıları geri çekici sabit (veya geçerli) olup, sabit olarak ve hata terimi sıfır kovaryans sahip olan , ancak tahmin hata terimi ile ilişkilidir, tahmin bağımlı değişken içerdiğinden ve bağımlı değişken hata terimini içerir. Böylece sahibiz

Var(u^i)=[Var(ui)+Var(β^0)+xi2Var(β^1)+2xiCov(β^0,β^1)]+2Cov([(β0β^0)+(β1β^1)xi],ui)

=[σ2+σ2(1n+x¯2Sxx)+xi2σ2(1/Sxx)+2Cov([(β0β^0)+(β1β^1)xi],ui)

Almak için biraz paketleyin

Var(u^i)=[σ2(1+1n+(xix¯)2Sxx)]+2Cov([(β0β^0)+(β1β^1)xi],ui)

Büyük parantez içinde terim tek değişiklik yerine o olmak, tahmin hatasının varyansı ile tam olarak aynı yapıya sahiptir biz sahip olacak (ve varyans o olacaktır ve değil ). Son kovaryans terimi kestirim hatası için bir sıfır olduğundan ve dolayısıyla olan değil , çünkü tahmin edicileri dahil, fakat sıfır kestirim hatası için ve dolayısıyla numunenin bir parçası olan ve bu yüzden de dahildir tahmincisi. SahibizX 0 e 0 u ı y 0 u 0 y ı u ıxix0e0u^iy0u0yiui

2Cov([(β0β^0)+(β1β^1)xi],ui)=2E([(β0β^0)+(β1β^1)xi]ui)

=2E(β^0ui)2xiE(β^1ui)=2E([y¯β^1x¯]ui)2xiE(β^1ui)

nasıl hesaplandığıyla ilgili son değişiklik . Devam ediyor,β^0

...=2E(y¯ui)2(xix¯)E(β^1ui)=2σ2n2(xix¯)E[(xix¯)(yiy¯)Sxxui]

=2σ2n2(xix¯)Sxx[(xix¯)E(yiuiy¯ui)]

=2σ2n2(xix¯)Sxx[σ2nji(xjx¯)+(xix¯)σ2(11n)]

=2σ2n2(xix¯)Sxx[σ2n(xix¯)+(xix¯)σ2]

=2σ2n2(xix¯)Sxx[0+(xix¯)σ2]=2σ2n2σ2(xix¯)2Sxx

Bunu, artığın varyansının ifadesine ekleyerek,

Var(u^i)=σ2(11n(xix¯)2Sxx)

Böylece OP'nin kullandığı metne şapka çıkar.

(Bazı cebirsel manipülasyonları atladım, bu günlerde OLS cebirinin daha az öğretilmesine şaşmamalı ...)

BAZI GİRİŞ

Öyleyse, tahmin edilirken "bize karşı" (daha büyük varyans) işe yarayan, tahmin yaparken "bizim için" (daha düşük varyans) işe yarar. Bu, mükemmel bir uyumun modelin tahmin yetenekleri için neden kötü bir işaret olabileceğini düşünmek için iyi bir başlangıç ​​noktasıdır (bununla birlikte sezgisel gelebilir ...). Regresörün beklenen değerini tahmin
ediyor olmamız , varyansı azaltır . Niye ya? çünkü tahmin ederek, örnekte var olan bazı hata değişkenliğine "gözlerimizi kapatıyoruz" , çünkü esasen beklenen bir değeri tahmin ediyoruz. Ayrıca, bir regresörün gözleminin regresörün numune ortalamasından sapması ne kadar büyük olursa,1/nbu gözlemle ilişkili kalıntıların varyansı ... gözlem ne kadar sapkın olursa, kalıntı o kadar az sapkın olacaktır ... Bilinmeyen hatanın "yerini alarak" bizim için çalışan regresörlerin değişkenliği- değişkenliği.

Ama bu tahmin için iyi . İçin tahmini , aynı şeyleri saldırmasını: şimdi, içinde, ama eksik olarak dikkate değişkenliği almayarak (biz bunu tahmin istiyoruz beri), numuneden elde eden kusurlu tahmincileri zaafları gösterir: biz tahmin örnek ortalama, gerçek beklenen değeri bilmiyoruz -varyans artar. Diğer gözlemlerden hesaplandığı gibi örnek ortalamadan uzak bir 0'ımız var - kötü, tahmin hatası varyansımız başka bir destek alıyor, çünkü tahmin edilen sapma eğilimi gösterecek ... daha fazla Bilimsel dil "düşük tahmin hatası varyansı anlamında optimal öngörücüler,x 0 y 0y0x0 y^0ortalama doğru büzülme tahmini altında değişkenin yakın ortalama ile '". Biz bağımlı değişkenin değişkenliği -Biz sadece kalmak için denemek çoğaltmak için çalışmayın'.


Çok açık bir cevap için teşekkürler! Benim "sezgilerimin" doğru olduğuna sevindim.
Eric

Alecos, bunun doğru olduğunu düşünmüyorum.
Glen_b

@Alecos hata, hata terimi ile ilgisiz parametre tahminlerini almaktır. Bu bölüm: doğru değil. Var(u^i)=Var(ui)+Var(β^0)+xi2Var(β^1)+2xiCov(β^0,β^1)
Glen_b

@Eric Sizi daha önce yanılttığım için özür dilerim. Her iki formül için de sezgi sağlamaya çalıştım.
Alecos Papadopoulos

+1 Bunun için neden çoklu regresyon vakasını yaptığımı görebilirsiniz ... basit regresyon vakasını yapmak için ekstra çaba harcadığınız için teşekkürler.
Glen_b

19

Biraz kısa cevap için özür dilerim, belki de aşırı soyut ve arzu edilen miktarda sezgisel sergiden yoksun, ama geri gelmeye ve daha sonra birkaç ayrıntı daha eklemeye çalışacağım. En azından kısa.

Verilen ,H=X(XTX)1XT

Var(yy^)=Var((IH)y)=(IH)Var(y)(IH)T=σ2(IH)2=σ2(IH)

bundan dolayı

Var(yiy^i)=σ2(1hii)

Basit doğrusal regresyon durumunda ... bu sorunuzun cevabını verir.

Bu cevap da mantıklıdır: ile pozitif korelasyon , farkın varyansı varyansların toplamından daha küçük olmalıdır.y^iyi

-

Düzenleme: neden açıklaması olduğu İdempotent .(IH)

(i) idempotenttir:H

H2=X(XTX)1XTX(XTX)1XT =X [(XTX)1XTX] (XTX)1XT=X(XTX)1XT=H

(ii)(IH)2=I2IHHI+H2=I2H+H=IH


1
Benim için açık olmayan bir adım neden olsa da, bu basitliği için çok güzel bir türev . Belki cevabınızı biraz genişlettiğinizde, yine de yapmayı planladığınız için, bununla ilgili küçük bir şey söyleyebilirsiniz? (IH)2=(IH)
Jake Westfall

@Jake Sonuna birkaç satır eklendi
Glen_b -Restate Monica
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.