Regresyon katsayıları için bu sapma sapması dengesi nedir ve nasıl türetilir?


9

Olarak , bu kağıt , ( Varyans Bileşenleri Bayes Çıkarım tezat teşkil hata sadece kullanarak , yazar istemlerde Harville, 1974) "iyi bilinen" ilişki ", doğrusal bir regresyon için burada

(yXβ)H1(yXβ)=(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
y=Xβ+ϵ,
ϵN(0,H).

Bu nasıl biliniyor? Bunu kanıtlamanın en basit yolu nedir?


1
Bu açık wikipedia , orada 'türetilmesi' bkz.
user603

@ user603 Bağlantıyı daha net hale getirebilir misiniz? Teşekkürler!
Sibbs Kumar

@ user603 Maalesef bağlantının sorunu nasıl çözdüğünü gerçekten göremiyorum. Benim için, benim durumumda, denklem Var (y) = önyargı + ... Ayrıntılı olabilir misiniz?
Sibbs Kumar

4
@SibbsGambling Denkleminizin bu ağırlıklı doğrusal regresyon formülasyonunda iki varyansla ilgili terime sahip olduğunu unutmayın . Soldaki terim, gerçek modelin etrafındaki varyansla ilgilidir ( hassas matrisiyle tartılır ). Sağdaki ilk terim, monte edilen modeller etrafındaki varyansla ilgilidir. Sağdaki ikinci terim ile ilgilidir meydanda önyargı. Bu varyans önyargısı dengesidir. H1
EdM

Yanıtlar:


6

Denklemdeki son dönem şu şekilde yazılabilir:

(XβXβ^)H1(XβXβ^).

Bu formda denklem ilginç bir şey söylüyor. pozitif kesin ve simetrik olduğu varsayıldığında , tersi de geçerlidir. Bu nedenle, bize geometri veren bir iç ürün . O zaman yukarıdaki eşitlik esasen diyor H<x,y>H1=xH1y

(XβXβ^)(yXβ^).

Bir yorumcu türetmeye zaten bir bağlantı bıraktığından size bu sezgiyi vermek istedim.

Düzenle: Posterity için

LHS:

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ=(A)(B)+(C)

RHS:

(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
=yH1y2yH1Xβ^+β^XH1Xβ^+βXH1Xβ2β^XH1Xβ+β^XH1Xβ^=(A)(D)+(E)+(C)(F)+(E)

İlişkisi:

β^=(XH1X)1XH1y

İlişkiyi takarak (B) = (F) ve 2 (E) = (D) olduğunu gösterebilirsiniz. Hepsi tamam.


Maalesef bağlantının sorunu nasıl çözdüğünü gerçekten göremiyorum. Benim için, benim durumumda, denklem Var (y) = önyargı + ... Ayrıntılı olabilir misiniz?
Sibbs Kumar

@SibbsGambling, türetme dahil cevabımı düzenledi.
jlimahaverford

@jlimahaverford Eğer unutmak değildir formül sonunda ? yβ^
Gumeo

7

Bu kimliğe, kareyi tamamlama adı verilen bir teknikle ulaşıyorlar. Sol taraf ikinci dereceden bir formda, bu yüzden çarparak başlayın

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ

devam edip . Cebir, Bayesian regresyonundaki meydanı tamamlayan bir tür uzun ama googling ve çok sayıda ipucu bulabilirsiniz. Örneğin, Bayesian doğrusal regresyon hakkındaki wikipedia'ya ve karenin tamamlanmasına ilişkin diğer CrossValided cevaplarına buradan bakın . β^=(XH1X)1XH1y


2

Matris cebirinizi biliyorsanız, bu her şeyi çarparak ve gerçekten her iki tarafta da aynı olduğunu doğrulayarak yapılabilir. Jlimahaverford bunu gösterdi.

Bunu yapabilmek için tahmini formülüne ihtiyacınız var . İlişkisiz hata terimlerimiz olduğunda formülü doğrusal regresyona benzer şekilde türetebiliriz. İşin püf noktası standartlaştırmak.β^

İşte çok değişkenli normal dağılıma gelen bir RV standardize konusunda bazı bilgiler. Diyelim ki pozitif tanımlıdır, bu yüzden olarak çarpanlarına ayırabilirsiniz . Şimdi rastgele değişkeni dağılımından geliyor . Şimdi bu numarayı bulmak için sorunumuz için kullanabiliriz . çarpanlarına ayıralım . Biz Şimdi standartlaştırılmıştır, öyle ki

XN(μ,Σ).
ΣΣ=PPT
Y=P1(Xμ)
N(0,I)β^H=PPT
y=Xβ+ϵP1y=P1Xβ+P1ϵ
ϵcov(P1ϵ)=I , şimdi bunu basit bir çoklu doğrusal regresyon modeli olarak ele alabiliriz: Regresyon sorun Böylece: formülü olan Bu yapılacak anahtar bu, gerisi jlimahaverford tarafından çözelti içinde gösterilen cebirsel manipülasyon.
X~=P1X,y~=P1yandϵ~=P1ϵ.
y~=X~β+ϵ~
β^
β^=(X~TX~)1X~Ty~=((P1X)TP1X)1(P1X)TP1y=(XT(PPT)1X)1X(PPT)1y=(XTH1X)1XH1y
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.