Doğrusal regresyon: * Neden * karelerin toplamını bölebilirsiniz?


9

Bu yazı iki değişkenli bir doğrusal regresyon modelini, Yi=β0+β1xi. Her zaman toplam kareler toplamının (SSTO) hata için kareler (SSE) ve iman üzerine model (SSR) için kareler toplamına bölünmesini aldım, ama gerçekten bir kez düşünmeye başladığımda, anlayamıyorum neden çalışıyor ...

Ben parçası do anlıyorum:

yi: Gözlenen y değeri

y¯: Gözlenenlerin ortalaması yis

y^i: Verilen bir gözlem için x'in takılmış / tahmin edilen değeri

yiy^i: Kalan / hata (tüm gözlemler için karesi alınmış ve eklenmişse, bu SSE'dir)

y^iy¯: Modele takılan değerin ortalamadan ne kadar farklı olduğu (tüm gözlemler için karesi alınmış ve eklenmişse, bu SSR'dir)

yiy¯: Bir gözlemlenen değerin ortalamadan ne kadar farklı olduğu (eğer tüm gözlemler için bilinir ve toplanırsa, bu SSTO'dur).

Neden tek bir gözlem için hiçbir şey karesi almadan anlayabiliyorum, (yiy¯)=(y^iy¯)+(yiy^i). Ve nedenini anlayabiliyorum, eğer tüm gözlemlere bir şeyler eklemek istiyorsanız, onları karelemek zorundasınız yoksa 0'a kadar ekleyecekler.

Anlamıyorum kısmı neden (yiy¯)2=(y^iy¯)2+(yiy^i)2(örneğin, SSTO = SSR + SSE). Görünüşe göre bir durumunuz varsa,A=B+C, sonra A2=B2+2BC+C2, değil A2=B2+C2. Neden böyle değil?


5
Son paragrafınızdaki toplamı hariç tuttunuz. SST = SSR + SSE toplamıi, ancak eşitlikten hemen önce yazdığınız eşitliğiniz, orada toplama işareti olmadan aslında doğru değildir.
Glen_b -Manica Monica

1
Son paragrafınızda, (ör. SSTO = SSR + SSE) istemezsiniz (örn. SSTO = SSR + SSE). "ör.", Latince " exempli gratia " veya "örneğin" kelimesinin İngilizce kısaltmasıdır . "ie", " id est " kelimesinin kısaltmasıdır ve İngilizce'de "olduğu gibi" okunabilir.
Matthew Gunn

Yanıtlar:


9

Görünüşe göre bir durumunuz varsa, A=B+C, sonra A2=B2+2BC+C2, değil A2=B2+C2. Neden böyle değil?

Kavramsal olarak, fikir şu ki BC=0 Çünkü B ve C diktir (yani dikeydir).


Buradaki doğrusal regresyon bağlamında, artıklar ϵi=yiy^i aşağılanmış tahminle dikey y^iy¯. Doğrusal regresyondan tahmin, dikey bir ayrışma yaratır.y benzer anlamda (3,4)=(3,0)+(0,4) dik bir ayrışmadır.

Doğrusal Cebir sürümü:

İzin Vermek:

z=[y1y¯y2y¯yny¯]z^=[y^1y¯y^2y¯y^ny¯]ϵ=[y1y^1y2y^2yny^n]=zz^

Doğrusal regresyon (sabit bir dahil) ayrışır z iki vektörün toplamına: bir tahmin z^ ve artık ϵ

z=z^+ϵ

İzin Vermek .,.nokta ürünü belirtir . (Daha genel olarak,X,Yolabilir , iç çarpım E[XY].)

z,z=z^+ϵ,z^+ϵ=z^,z^+2z^,ϵ+ϵ,ϵ=z^,z^+ϵ,ϵ

Son satırın z^,ϵ=0 (yani z^ ve ϵ=zz^dikeydir). Kanıtlayabilirsinz^ ve ϵ en küçük kareler regresyonunun nasıl kurulduğuna bağlı olarak diktir z^.

z^bir çizgisel çıkıntı arasındazregresörlerin doğrusal açıklığı ile tanımlanan alt boşluk üzerinex1, x2, vb .... Kalan ϵ dolayısıyla tüm alt uzaya diktir z^ (bu, x1, x2, vb ...) dikey ϵ.


Tanımladığım gibi .,. nokta ürünü olarak, z,z=z^,z^+ϵ,ϵ sadece yazmanın başka bir yolu i(yiy¯)2=i(y^iy¯)2+i(yiy^i)2 (yani SSTO = SSR + SSE)


8

Bütün mesele, belirli vektörlerin dik olduğunu ve daha sonra Pisagor teoremini kullandığını göstermektedir.

Çok değişkenli doğrusal regresyonu ele alalım Y=Xβ+ϵ. OLS tahmincisininβ^=(XtX)1XtY. Şimdi tahmini düşünün

Y^=Xβ^=X(XtX)1XtY=HY (H matrisine "hat" matrisi de denir)

nerede H Y'nin dikey bir projeksiyon matrisidir. S(X). Şimdi elimizde

YY^=YHY=(IH)Y

nerede (IH) 'nin dikey tamamlayıcısına izdüşüm matrisidir. S(X) hangisi S(X). Böylece biliyoruz kiYY^ ve Y^ dikeydir.

Şimdi bir alt modeli düşünün Y=X0β0+ϵ

nerede X=[X0|X1] ve benzer şekilde OLS tahmincimiz ve tahminimiz var β0^ ve Y0^ projeksiyon matrisi ile H0 üstüne S(X0). Benzer şekildeYY0^ ve Y0^dikeydir. Ve şimdi

Y^Y0^=HYH0Y=HYH0HY=(IH0)HY

yine nerede (IH0) tamamlayıcı üzerinde dik bir projeksiyon matrisidir S(X0) hangisi S(X0). Bu nedenle,Y^Y0^ ve Y0^. Sonunda elimizde

||YY^||2=||Y||2||Y^||2=||YY0^||2+||Y0^||2||Y^Y0^||2||Y0^||2

and finally ||YY0^||2=||YY^||2+||Y^Y0^||2

Lastly, the mean Y¯ is simply the Y0^ when considering the null model Y=β0+e.


Thank you for your answer! What is S() (as in S(X) in your post)?
bluemouse

S(X) is a subspace generated by the columns of matrix X
Łukasz Grad
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.