Matris terimleriyle, modelleriniz normal biçimindedir . E[ Y] = Xβ
Birinci model satırdaki birinci grubun bir elemanını temsil eder içinde O, ikinci grubun bir elemanını temsil eder kategori 3 için kesişim, kategori 2 göstergesi ve göstergeye karşılık gelen sıra ve üçüncü grubun bir elemanı .X ( 1 , 1 , 0 ) ( 1 , 0 , 1 )( 1 , 0 , 0 )X( 1 , 1 , 0 )( 1 , 0 , 1 )
İkinci model bunun yerine , ve satırlarını kullanır .( 1 , 2 , 2 2 ) = ( 1 , 2 , 4 ) ( 1 , 3 , 3 2 ) = ( 1 , 3 , 9 )( 1 , 1 , 12) = ( 1 , 1 , 1 )( 1 , 2 , 22) = ( 1 , 2 , 4 )( 1 , 3 , 32) = ( 1 , 3 , 9 )
Ortaya çıkan model matrisleri ve . Bunlar basitçe ilişkilidir: birinin sütunları diğerinin sütunlarının doğrusal kombinasyonlarıdır. Örneğin,X 2X1X2
V= ⎛⎝⎜100112138⎞⎠⎟.
O zamandan beri
⎛⎝⎜111010001⎞⎠⎟V= ⎛⎝⎜111123149⎞⎠⎟,
bunu takip eder
X1V= X2.
Bu nedenle modellerin kendileri
X1β1= E[ Y] = X2β2= ( X1V) β2= X1( Vβ2) .
Yani, ikinci model için katsayıları , ilk modelin katsayılarıyla ilişkili olmalıdır.β2
β1= Vβ2.
Dolayısıyla aynı ilişki en küçük kareler tahminleri için de geçerlidir. Bu, modellerin aynı uyumlara sahip olduğunu gösterir : sadece onları farklı ifade ederler.
İki model matrisin ilk sütunları aynı olduğundan, ilk sütun ile kalan sütunlar arasındaki varyansı ayrıştıran ANOVA tablosu değişmez. Bununla birlikte, ikinci ve üçüncü sütunları birbirinden ayıran bir ANOVA tablosu, verilerin nasıl kodlandığına bağlı olacaktır.
Geometrik olarak (ve biraz daha soyut olarak), sütunları tarafından üretilen un üç boyutlu alt alanı , sütunları tarafından oluşturulan alt çakışır . Bu nedenle modellerin aynı uyumları olacaktır. Uyumlar sadece boşluklar iki farklı baz ile tanımlandığından farklı şekilde ifade edilir.R,15X1X2
Açıklamak gerekirse, işte sizinki gibi veriler (ancak farklı yanıtlarla) ve üretildiği gibi karşılık gelen analizler R.
set.seed(17)
D <- data.frame(group=rep(1:3, each=5), y=rnorm(3*5, rep(1:3, each=5), sd=2))
İki modeli takın:
fit.1 <- lm(y ~ factor(group), D)
fit.2 <- lm(y ~ group + I(group^2), D)
ANOVA tablolarını görüntüleyin:
anova(fit.1)
anova(fit.2)
İlk modelin çıktısı
Df Sum Sq Mean Sq F value Pr(>F)
factor(group) 2 51.836 25.918 14.471 0.000634 ***
Residuals 12 21.492 1.791
İkinci model için
Df Sum Sq Mean Sq F value Pr(>F)
group 1 50.816 50.816 28.3726 0.0001803 ***
I(group^2) 1 1.020 1.020 0.5694 0.4650488
Residuals 12 21.492 1.791
Kalan karelerin toplamlarının aynı olduğunu görebilirsiniz. İkinci modeldeki ilk iki satırı ekleyerek aynı DF'yi ve aynı ortalama kare, F değeri ve p-değerinin hesaplanabileceği toplam kareleri elde edersiniz.
Son olarak, katsayı tahminlerini karşılaştıralım.
beta.1.hat <- coef(fit.1)
beta.2.hat <- coef(fit.2)
Çıktı
(Intercept) factor(group)2 factor(group)3
0.4508762 2.8073697 4.5084944
(Intercept) group I(group^2)
-3.4627385 4.4667371 -0.5531225
Kesişmeler bile tamamen farklıdır. Bunun nedeni, çoklu regresyondaki herhangi bir değişkenin tahminlerinin diğer tüm değişkenlerin tahminlerine dayanmasıdır (hepsi karşılıklı olarak dikey değilse, her iki model için de geçerli değildir). Bununla birlikte, çarpmanın ne başardığına bakın:V
⎛⎝⎜100112138⎞⎠⎟⎛⎝⎜- 3.46273854.4667371- 0.5531225⎞⎠⎟= ⎛⎝⎜0.45087622.80736974.5084944⎞⎠⎟.
Uyumlar gerçekten iddia edildiği gibi aynı.