Kesinti dahil edildiğinde neden doğrusal regresyondaki artıklar her zaman sıfıra eşitlenir?


14

Regresyon modelleri üzerine bir ders alıyorum ve doğrusal regresyon için sağlanan özelliklerden biri, bir kesişim dahil edildiğinde artıkların her zaman sıfıra toplanmasıdır.

Birisi bunun neden böyle olduğuna dair iyi bir açıklama yapabilir mi?


3
Öncelikle, tek değişkenli bir örnekte, her bir değerden örnek ortalamasını çıkararak elde ettiğiniz kalıntıların da 0'a eşit olduğu ile yakından ilgili ama daha basit bir soruyu düşünmek isteyebilirsiniz. (Mümkünse cebiri takip etmeyi deneyin.)
Glen_b - Monica

3
"Sıfıra toplama" ifadesinin, açıklayıcı değişkenlerden birine dik "anlamına geldiğini anladığınızda cevap geometrik olarak belirgin hale gelir.
whuber

Yanıtlar:


18

Bu doğrudan normal denklemlerden, yani OLS tahmincisinin çözdüğü denklemlerden,

X(yXb)e=0

Parantezlerin içindeki vektör, elbette, doğrusal cebirden hoşlanıyorsanız , artık vektör veya X'in sütun boşluğunun dik tamamlayıcısına izdüşümüdür . Şimdi, X matrisine, geleneksel olarak yapıldığı gibi ilk sütunda olmak zorunda olmayanların bir vektörünü dahil etmek,yXX

1e=0i=1nei=0

İki değişkenli problemde, kare artıkların toplamını en aza indirgemek bizi

i=1n(yiabxi)=0

yakalama ile ilgili türevi aldığımızda. Bundan sonra tanıdık tahmin ediciyi elde etmeye devam ediyoruz.

a=y¯bx¯

yine tahmin edicilerimizin inşasının bu koşulu getirdiğini görüyoruz.


17

Oldukça sezgisel bir açıklama arıyorsanız.

x¯x1,x2,,xnui=xix¯) ortalama değerin sağında, bu ortalamanın solundaki tüm sapmaların toplamına eşittir. Bu önlemin iyi olmasının doğal bir nedeni yoktur, bir örneklemin ortalamasını açıklamanın en iyi yolu olsa da, kesinlikle sezgisel ve pratiktir. Önemli olan, aritmetik ortalamanın bu şekilde tanımlanmasıyla, aritmetik ortalamayı oluşturduktan sonra, bu ortalamadaki tüm sapmaların tanım gereği sıfıra ulaşması gerektiği anlamına gelir!

Doğrusal regresyonda, bu farklı değildir. Bu hat uygun eden (regresyon doğrusu üzerindedir) monte değerleri ve olan gerçek değerleri arasındaki farklar her toplamı şekilde yukarıda hattı regresyon doğrusu arasındaki farklar her ve tüm değerlerinin toplamına tam olarak eşit olduğu , aşağıdaki hat. Yine, doğal bir neden yoktur, bunun neden bir uyum inşa etmenin en iyi yolu olduğu, ancak basit ve sezgisel olarak çekici. Tıpkı aritmetik ortalamada olduğu gibi: takılmış değerlerimizi bu şekilde yapılandırarak, mutlaka, bu çizgiden tüm sapmaların sıfıra toplanması gerekir, aksi takdirde bu sadece bir OLS rejimi olmaz.


2
Basit, basit ve sezgisel cevap için +1!

Harika bir açıklama, ama emin değilim, "Yine de, bunun bir uyum inşa etmenin en iyi yolu olmasının doğal bir nedeni yok, ama basit ve sezgisel olarak çekici." doğrudur. Gauss-Markov Teoremi tarafından OLS tahmincilerinin MAVİ olduğu iyi bilinmektedir: en iyi (minimum varyans) doğrusal tarafsız tahminler (varsayımların karşılandığı varsayılarak). Çoğunlukla çekici / makul olanla ilgili sezgisel "duygularımız" da burada olduğu gibi matematiksel olarak desteklenir.
Meg

3

y^i=β0+β1xi,1+β2xi,2++βpxi,p
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi,1β2xi,2βpxi,p)2
β0
SSEβ0=i=1n2(yiβ0β1xi,1β2xi,2βpxi,p)1(1)=2i=1nei=0
Bu nedenle, doğrusal regresyona bir kesişim dahil edildiğinde artıklar her zaman sıfıra toplanır.


1

1X

1=Xe,
e1T(yy^)

Bu nedenle,

1T(yy^)=1T(IH)y=eTXT(IX(XTX)1XT)y=eT(XTXTX(XTX)1XT)y=eT(XTXT)y=0.


0

Matris cebiri kullanarak basit bir türev:

e1Te

Sonra

1Te=1T(Mxy)MxMx(Mx1)Ty

Mx1x1


Bunun doğru olduğunu düşünmüyorum.
Michael R.Chickick

Nedenini açıklarsan o zaman bir şeyler öğrenmekten mutlu olurum
Mino

0
  1. ei=yi[1,X][a,b]=yiXba=via
  2. ddaei2ei1=via=0a^=1nvi
  3. ei=ivia=ivinnivi=0

..

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.