Farklılığın değişken türünde ve daha da açıklayıcı değişken türlerinde olduğunu anlamak ilginç olurdu . Tipik ANOVA'da farklı gruplara sahip kategorik bir değişkenimiz var ve sürekli bir değişkenin ölçümünün gruplar arasında farklılık gösterip göstermediğini belirlemeye çalışıyoruz. Öte yandan, OLS, sürekli bir gerileme veya tepki değişkeni ile bir veya daha fazla gerileme veya açıklayıcı değişken arasındaki ilişkiyi değerlendirme girişimi olarak algılanma eğilimindedir . Bu anlamda, regresyon kendini bir regresyon çizgisine dayanan değerleri tahmin etmeye borç vererek farklı bir teknik olarak görülebilir.
Ancak , bu fark ANOVA'nın varyans alfabe çorbasının (ANCOVA, MANOVA, MANCOVA) analizinin geri kalanına yayılmasına dayanmamaktadır; veya kukla kodlu değişkenlerin OLS regresyonuna dahil edilmesi. Belirli tarihi yerler hakkında net değilim ama sanırım her iki teknik de giderek daha karmaşık modellerle başa çıkmak için paralel uyarlamalar geliştirdi.
Örneğin, ANCOVA ile OLS ve OLS arasındaki farkların kukla (veya kategorik) değişkenlerle (etkileşimli her iki durumda) en fazla kozmetik olduğunu görebiliriz. Lütfen ayrılmamı, çoklu lineer regresyonla ilgili olarak, sorunuzun başlığındaki sınırlardan alayım.
Her iki durumda da, model R içinde bu noktaya kadar esasen özdeş olan fonksiyon ANCOVA gerçekleştirmek için kullanılırlm
. Ancak, regresyon modelinde faktör (veya kategorik) değişkenin birinci seviyesine (veya grubuna) karşılık gelen bir kesişimin dahil edilmesi bakımından farklı olarak sunulabilir.
Dengeli bir modelde (eşit büyüklükte grupları, n 1 , 2 , ⋯i ) ve sadece bir ortak değişken (matris sunumunu basitleştirmek için), ANCOVA'daki model matrisine bazı varyasyonlar olarak rastlanabilir:n1,2,⋯i
X=⎡⎣⎢1n10001n20001n3xn1000xn2000xn3⎤⎦⎥
blok faktörü olarak ifade edilen faktör değişkeninin 3 grubu için .3
Bu doğrusal modele karşılık gelir:
ile α i ANOVA modelinde farklı grup vasıtasıyla eşdeğer farklı ise β 'in elde edilmiş her grup için ortak değişken eğimleri vardır.
y=αi+β1xn1+β2xn2+β3xn3+ϵi
αiβ
Aynı modelin regresyon alanında ve özellikle R'de sunulması, gruplardan birine karşılık gelen genel bir engelleme olduğunu düşünür ve model matrisi şu şekilde sunulabilir:
X=⎡⎣⎢⎢⎢⋮J3n,1⋮01n20001n3⋮x⋮0000xn2000xn3⎤⎦⎥⎥⎥
OLS denkleminin
.
y=β0+μi+β1xn1+β2xn2+β3xn3+ϵi
Bu modelde, genel kesimi her grup seviyesinde μ i tarafından değiştirilir ve gruplar aynı zamanda farklı eğimlere sahiptir.β0μi
Model matrislerinden görebileceğiniz gibi, sunum regresyon ve varyans analizi arasındaki gerçek kimliğe inanmaktadır.
Bunu bazı kod satırları ve R'deki en sevdiğim verilerlemtcars
doğrulamayı seviyorum . Buradalm
bulunan Ben Bolker gazetesine göre ANCOVA kullanıyorum .
mtcars$cyl <- as.factor(mtcars$cyl) # Cylinders variable into factor w 3 levels
D <- mtcars # The data set will be called D.
D <- D[order(D$cyl, decreasing = FALSE),] # Ordering obs. for block matrices.
model.matrix(lm(mpg ~ wt * cyl, D)) # This is the model matrix for ANCOVA
Hangi yöntemin kullanılacağı (R ile regresyon!) Hakkındaki soruya gelince, bu yazıyı yazarken karşılaştığım bu çevrimiçi yorumu eğlenceli bulabilirsiniz .