Regresörlerin polinomları olup olmadığı çoklu doğrusal regresyonun sonucunu göstereceğim . Aslında, sorduğunuzdan biraz daha fazlasını gösterir, çünkü her LOOCV kalıntısının, sadece (5.2) 'de olduğu gibi LOOCV hatasını elde edebileceğiniz değil, tam regresyondaki ilgili kaldıraç ağırlıklı kalıntı ile aynı olduğunu gösterir. ortalamadaki her terim aynı olmasa bile, ortalamaların kabul edildiği başka yollar olabilir).Xt
Biraz uyarlanmış gösterimi kullanma özgürlüğünü alalım.
İlk göstermektedir
Pβ tüm verileri kullanılarak tahmin olan P (t)üzerinden terk ederken tahminX(t), gözlemt. İzin Vermek
β^−β^(t)=(u^t1−ht)(X′X)−1X′t,(A)
β^β^(t)X(t)t şekilde bir sıra vektörü olarak tanımlanabilir
y t = X t β .
U t kalıntılar bulunmaktadır.
Xty^t=Xtβ^u^t
Kanıt aşağıdaki matris cebirsel sonucunu kullanır.
Let bir tekil olmayan matris olması b bir vektör ve X bir skaler. Eğer
λAbλ Sonra
(A+λbb′)-1
λ≠−1b′A−1b
(A+λbb′)−1=A−1−(λ1+λb′A−1b)A−1bb′A−1(B)
(B) 'nin kanıtı
{A−1−(λ1+λb′A−1b)A−1bb′A−1}(A+λbb′)=I.
Aşağıdaki sonuç kanıtlamak için yararlıdır (A)
(X′(t)X(t))−1X′t=(11−ht)(X′X)−1X′t. (C)
(C) 'nin kanıtı: (B)' ye göre, ,
( X ′ ( t ) X ( t ) ) - 1∑Tt=1X′tXt=X′X
Böylece
(X ′ ( t ) X(t))-1X ′ t
(X′(t)X(t))−1=(X′X−X′tXt)−1=(X′X)−1+(X′X)−1X′tXt(X′X)−11−Xt(X′X)−1X′t.
(X′(t)X(t))−1X′t=(X′X)−1X′t+(X′X)−1X′t(Xt(X′X)−1X′t1−Xt(X′X)−1X′t)=(11−ht)(X′X)−1X′t.
The proof of (A) now follows from (C): As
X′Xβ^=X′y,
we have
(X′(t)X(t)+X′tXt)β^=X′(t)y(t)+X′tyt,
or
{Ik+(X′(t)X(t))−1X′tXt}β^=β^(t)+(X′(t)X(t))−1X′t(Xtβ^+u^t).
So,
β^=β^(t)+(X′(t)X(t))−1X′tu^t=β^(t)+(X′X)−1X′tu^t1−ht,
where the last equality follows from (C).
Now, note ht=Xt(X′X)−1X′t. Multiply through in (A) by Xt, add yt on both sides and rearrange to get, with u^(t) the residuals resulting from using β^(t) (yt−Xtβ^(t)),
u^(t)=u^t+(u^t1−ht)ht
or
u^(t)=u^t(1−ht)+u^tht1−ht=u^t1−ht