Muhtemelen iki örnek testini düşünüyorsunuz çünkü bu genellikle t dağılımının ilk ortaya çıktığı yerdir . Ancak gerçekten t testinin tümü , test istatistiği için referans dağılımının t dağılımı olduğudur. Eğer Z ~ N ( 0 , 1 ) ve S 2 ~ χ 2 d ile Z ve S 2 bağımsız ardından
ZttttZ∼N(0,1)S2∼χ2dZS2
Tanıma göre t d . Bunu t dağılımının sadece bu oranın dağılımına verilen bir isim olduğunuvurgulamak için yazıyorum, çünkü çok fazla geliyor ve bu formun herhangi birisinin t dağılımı olacak. İki örnek t testi için, bu oran, null altında ortalamalardaki farkın sıfır ortalama bir Gaussian olması ve bağımsız Gaussianların varyans tahmini bağımsız bir χ 2 olması nedeniyle ortaya çıkar (bağımsızlıkBasu teoremiile gösterilebilir
ZS2/d−−−−√∼td
ttχ2 bu da bir Gauss örneğindeki standart varyans tahmininin popülasyon ortalamasına yardımcı olduğu gerçeğini kullanır, buna karşılık numune ortalaması tam ve aynı miktar için yeterlidir).
Doğrusal regresyon ile temelde aynı şeyi alırız. Vektör . Let S 2 j = ( X , T x ) - 1 j j ve prediktörleri kabul X olmayan rasgele. Σ 2'yi bilseydikβ^∼N(β,σ2(XTX)−1)S2j=(XTX)−1jjXσ2 biz olurdu
β j - 0H0
null altındaki σ S j ∼N(0,1):βj=0dolayısıyla aslında bir Z testimiz olur. Amaσ2'yitahminettiğimizde, normalite varsayımlarımıza göre istatistiğimizden bağımsız olduğu ortaya çıkanχ2rasgele değişken ile sonuçlanırız
β^j−0σSj∼N(0,1)
H0:βj=0σ2χ2ve sonra da bir olsun
tdağılımı.
β^jt
İşte ayrıntıları: varsayalım . İzin vermek H = X ( X , T x ) - 1 x T olmak Elimizdeki şapka matris
‖ e ‖ 2 = ‖ ( I - H ) Y ‖ 2 = y T ( I - H ) y . H idempotent, bu yüzden gerçekten güzel bir sonuç var
y∼N(Xβ,σ2I)H=X(XTX)−1XT
∥e∥2=∥(I−H)y∥2=yT(I−H)y.
H
merkezi olmayan parametre ile
δ=βTXT(I-H)Xβ=βT(XTX-XTXyT(I−H)y/σ2∼χ2n−p(δ)
, yani bu merkezi bir
χ 2 ve
n - pδ=βTXT(I−H)Xβ=βT(XTX−XTX)β=0χ2n−pserbestlik derecesi (bu,
Cochran teoreminin özel bir örneğidir ).
X'in sütun sayısını belirtmek için
kullanıyorum , bu yüzden
X'in bir sütunu
kesişmeyi verirse
p - 1 kesişme öngörüleri olmazdı. Bazı yazarlar
p'yi kesişmeyen tahmin edicilerin sayısı olarak kullanırlar, bu nedenle bazen orada özgürlük derecelerinde
n - p - 1 gibi bir şey görebilirsiniz , ancak hepsi aynı şeydir.
pXXp−1pn−p−1
Bunun sonucu, , yaniE(eTe/σ2)=n−p,σ2'ninbir tahmincisi olarak harika çalışır.σ^2:=1n−peTeσ2
Bunun anlamı şudur ki
, standart Gauss'un chi kareye oranının, serbestlik derecesine bölünmesidir. Bunu bitirmek için bağımsızlık göstermemiz gerekiyor ve aşağıdaki sonucu kullanabiliriz:
β^jσ^Sj=β^jSjeTe/(n−p)−−−−−−−−−−√=β^jσSjeTeσ2(n−p)−−−−−−√
Sonuç: için ve matrisler A ve B içinde R, l x kZ∼Nk(μ,Σ)ABRl×k ve , sırasıyla A , Z ve B , Z ve eğer yalnızca bağımsız bir Σ B , T = 0 (bu egzersiz (B) Jun Shao'nun Matematik İstatistikleri bölüm 1 ).Rm×kAZBZAΣBT=0
Biz β = ( X , T x ) - 1 x T y ve e = ( I - H ) y y ~ N ( X, β , σ 2 I ) . Bunun anlamı
( X T X ) - 1 X T ⋅ σ 2 I ⋅ ( I - H ) T = σ 2β^=(XTX)−1XTye=(I−H)yy∼N(Xβ,σ2I)
, böylece p ⊥Eve bu nedenle p ⊥ E , T , e.
(XTX)−1XT⋅σ2I⋅(I−H)T=σ2((XTX)−1XT−(XTX)−1XTX(XTX)−1XT)=0
β^⊥eβ^⊥eTe
Netice şimdi biliyorum
β j
(Yukarıdaki varsayımlar altında her şeyi) arzu edildiği gibi.
β^jσ^Sj∼tn−p
C=(AB)(l+m)×kAB
CZ=(AZBZ)∼N((AμBμ),CΣCT)
CΣCT=(AB)Σ(ATBT)=(AΣATBΣATAΣBTBΣBT).
CZ A Σ BT= 0 bileşenlere tam olarak eşdeğer olduğu ortaya çıktı
A Z ve
B Z içinde
CZ ilişkisiz olmak.
□