ve arasındaki ilişki :ε^ε
ε^= ( I- H) ε
burada , şapka matrisi, .'HX(XTX)- 1XT
Yani tüm hataların doğrusal bir birleşimidir, ancak tipik olarak ağırlığın çoğu on'a düşer .ε^benben
cars
R'deki veri kümesini kullanarak bir örnek : Mor ile işaretlenmiş noktayı düşünün:
Buna noktası diyelim . Kalan ; burada diğer hatalar için , bölgesindedir:benε^ben≈ 0.98εben+Σj ≠ iwjεjwj
Bunu şu şekilde yeniden yazabiliriz:
ε^ben≈ 0.98εben+ηben
veya daha genel olarak
ε^ben= ( 1 -hben ben)εben+ηben
burada , çapraz elemanıdır . Benzer şekilde, yukarıdaki .hben benben'Hwjhben j
Hatalar , bu örnekte, bu diğer hataların ağırlıklı toplamı, Gözlem hatasının hatasının kalıcılığı üzerindeki etkisinin yaklaşık 1 / 7'sine karşılık gelen standart bir sapmaya sahip olacaktır. .N-( 0 ,σ2)ben
Yani, iyi davranılmış regresyonlarda, artıklar çoğunlukla hata teriminin gözlemlenemeyen orta derecede gürültülü bir tahmini gibi muamele edilebilir. Merkezden daha fazla nokta düşündüğümüzde, işler biraz daha az iyi çalışır (kalıntı hata üzerinde daha az ağırlıklı olur ve diğer hatalar üzerinde ağırlıklar daha az olur).
Birçok parametrede veya çok iyi dağıtılmadığı durumlarda, artıklar hatalara çok daha az benzeyebilir. Bazı örnekleri denemek isteyebilirsiniz.X