Varyansla ilgili "artı" işaretleriyle ilgili sezgi (bağımsız rastgele değişkenlerin farkının varyansını hesaplasak bile, varyanslarını eklediğimizden) doğrudur ancak ölümcül olarak eksiktir: ilgili rastgele değişkenler bağımsız değilse , daha sonra kovaryanslar da söz konusudur - ve kovaryanslar negatif olabilir. Orada bir deyim var neredeyse o (bana ve) OP tarafından olmak "gerektiğini" düşünüldü söz konusu ifadenin gibi ve öyle bir varyans tahmin hatası o göstermek, , burada :y 0 = β 0 + β 1 x 0 + u 0e0=y0−y^0y0=β0+β1x0+u0
Var(e0)=σ2⋅(1+1n+(x0−x¯)2Sxx)
Öngörü hatasının varyans ve varyans arasındaki önemli bir fark kestirim hatası (kalıntı arasında), tahmin edilen gözlem hata terimi olduğunu tahmin ile bağlantısı olmayan ve değer için, edildi olup kullanılan tahmin edicinin oluşturulması ve tahminlerin hesaplanması, örnek dışı bir değer olması.y0
Her ikisi için de cebir bir noktaya kadar aynı şekilde ilerler ( yerine kullanılarak ), ancak sonra ayrılır. özellikle:i0i
Basit doğrusal regresyonda , , tahmin edicinin varyansı hala Var ( u ı ) = σ 2 β = ( βyi=β0+β1xi+uiVar(ui)=σ2β^=(β^0,β^1)′
Var(β^)=σ2(X′X)−1
Sahibiz
X′X=[n∑xi∑xi∑x2i]
ve bu yüzden
(X′X)−1=[∑x2i−∑xi−∑xin]⋅[n∑x2i−(∑xi)2]−1
Sahibiz
[ n ∑ x2ben- ( ∑ xben)2] = [ n ∑ x2ben- n2x¯2] =n [ ∑ x2ben- n x¯2]= n ∑ ( x2ben- x¯2) ≡ n Sx x
Yani
( X'X )- 1= [ ( 1 / n ) ∑ x2ben- x¯- x¯1] ⋅(1 / Sx x)
bunun anlamı
Var ( β^0) = σ2( 1n∑ x2ben) ⋅(1 / S x x) = σ2nSx x+ n x¯2Sx x= σ2( 1n+ x¯2Sx x)
Var ( β^1) = σ2( 1 / Sx x)
Cov ( β^0, β^1) = - σ2(x¯/Sxx)
-inci kalıntı olarak tanımlanmıştıri
u^i=yi−y^i=(β0−β^0)+(β1−β^1)xi+ui
Gerçek katsayıları geri çekici sabit (veya geçerli) olup, sabit olarak ve hata terimi sıfır kovaryans sahip olan , ancak tahmin hata terimi ile ilişkilidir, tahmin bağımlı değişken içerdiğinden ve bağımlı değişken hata terimini içerir. Böylece sahibiz
Var(u^i)=[Var(ui)+Var(β^0)+x2iVar(β^1)+2xiCov(β^0,β^1)]+2Cov([(β0−β^0)+(β1−β^1)xi],ui)
=[σ2+σ2(1n+x¯2Sxx)+x2iσ2(1/Sxx)+2Cov([(β0−β^0)+(β1−β^1)xi],ui)
Almak için biraz paketleyin
Var(u^i)=[σ2⋅(1+1n+(xi−x¯)2Sxx)]+2Cov([(β0−β^0)+(β1−β^1)xi],ui)
Büyük parantez içinde terim tek değişiklik yerine o olmak, tahmin hatasının varyansı ile tam olarak aynı yapıya sahiptir biz sahip olacak (ve varyans o olacaktır ve değil ). Son kovaryans terimi kestirim hatası için bir sıfır olduğundan ve dolayısıyla olan değil , çünkü tahmin edicileri dahil, fakat sıfır kestirim hatası için ve dolayısıyla numunenin bir parçası olan ve bu yüzden de dahildir tahmincisi. SahibizX 0 e 0 u ı y 0 u 0 y ı u ıxix0e0u^iy0u0yiui
2Cov([(β0−β^0)+(β1−β^1)xi],ui)=2E([(β0−β^0)+(β1−β^1)xi]ui)
=−2E(β^0ui)−2xiE(β^1ui)=−2E([y¯−β^1x¯]ui)−2xiE(β^1ui)
nasıl hesaplandığıyla ilgili son değişiklik . Devam ediyor,β^0
...=−2E(y¯ui)−2(xi−x¯)E(β^1ui)=−2σ2n−2(xi−x¯)E[∑(xi−x¯)(yi−y¯)Sxxui]
=−2σ2n−2(xi−x¯)Sxx[∑(xi−x¯)E(yiui−y¯ui)]
=−2σ2n−2(xi−x¯)Sxx[−σ2n∑j≠i( xj- x¯) + ( xben- x¯) σ2( 1 - 1n) ]
= - 2 σ2n- 2 ( xben- x¯)Sx x[ - σ2n∑ ( xben- x¯) + ( xben- x¯) σ2]
= - 2 σ2n- 2 ( xben- x¯)Sx x[ 0 + ( xben- x¯) σ2] =-2 σ2n- 2 σ2( xben- x¯)2Sx x
Bunu, artığın varyansının ifadesine ekleyerek,
Var ( u^ben) = σ2⋅ ( 1 - 1n- ( xben- x¯)2Sx x)
Böylece OP'nin kullandığı metne şapka çıkar.
(Bazı cebirsel manipülasyonları atladım, bu günlerde OLS cebirinin daha az öğretilmesine şaşmamalı ...)
BAZI GİRİŞ
Öyleyse, tahmin edilirken "bize karşı" (daha büyük varyans) işe yarayan, tahmin yaparken "bizim için" (daha düşük varyans) işe yarar. Bu, mükemmel bir uyumun modelin tahmin yetenekleri için neden kötü bir işaret olabileceğini düşünmek için iyi bir başlangıç noktasıdır (bununla birlikte sezgisel gelebilir ...). Regresörün beklenen değerini tahmin
ediyor olmamız , varyansı azaltır . Niye ya? çünkü tahmin ederek, örnekte var olan bazı hata değişkenliğine "gözlerimizi kapatıyoruz" , çünkü esasen beklenen bir değeri tahmin ediyoruz. Ayrıca, bir regresörün gözleminin regresörün numune ortalamasından sapması ne kadar büyük olursa,1 / nbu gözlemle ilişkili kalıntıların varyansı ... gözlem ne kadar sapkın olursa, kalıntı o kadar az sapkın olacaktır ... Bilinmeyen hatanın "yerini alarak" bizim için çalışan regresörlerin değişkenliği- değişkenliği.
Ama bu tahmin için iyi . İçin tahmini , aynı şeyleri saldırmasını: şimdi, içinde, ama eksik olarak dikkate değişkenliği almayarak (biz bunu tahmin istiyoruz beri), numuneden elde eden kusurlu tahmincileri zaafları gösterir: biz tahmin örnek ortalama, gerçek beklenen değeri bilmiyoruz -varyans artar. Diğer gözlemlerden hesaplandığı gibi örnek ortalamadan uzak bir 0'ımız var - kötü, tahmin hatası varyansımız başka bir destek alıyor, çünkü tahmin edilen sapma eğilimi gösterecek ... daha fazla Bilimsel dil "düşük tahmin hatası varyansı anlamında optimal öngörücüler,x 0 y 0y0x0 y^0ortalama doğru büzülme tahmini altında değişkenin yakın ortalama ile '". Biz bağımlı değişkenin değişkenliği -Biz sadece kalmak için denemek çoğaltmak için çalışmayın'.