Çok değişkenli regresyona daha fazla değişken eklemek mevcut değişkenlerin katsayılarını değiştiriyor mu?


16

Diyelim ki 3 değişkenten oluşan çok değişkenli (birkaç bağımsız değişken) regresyon var. Bu değişkenlerin her birinin belirli bir katsayısı vardır. 4. değişkeni tanıtmaya ve regresyonu tekrar çalıştırmaya karar verirsem, 3 orijinal değişkenin katsayıları değişecek mi?

Daha genel olarak: çok değişkenli (çoklu bağımsız değişkenler) regresyonda, belirli bir değişkenin katsayısı başka bir değişkenin katsayısından etkileniyor mu?


1
Daha kesin olması için lütfen soruyu düzenleyin. Tarafından mı multivariablebirden çok bağımsız değişkeni ( "çoklu regresyon") veya birden fazla bağımlı değişken ( "çok değişkenli regresyon" veya "MAN (C) OVA") Yani sen?
ttnphns

1
Cevap hayır olsaydı, ilk etapta çok değişkenli regresyon yapmaya gerek kalmazdı! (çok sayıda tek değişkenli yapabiliriz)
user603 13:13

1
Bu anlayışlı bir nokta @ user603, ama bence yine de çoklu regresyon için bir yer olabilir, çünkü diğer değişkenler yanıtla anlamlı bir şekilde ilişkiliyse (açıklayıcı değişken olmasa da), artan varyansın azalmasına neden olabilir. güç ve hassasiyet.
gung - Monica'yı eski durumuna getirin

Yanıtlar:


23

Bir regresyon modeli bir parametre tahmini β i değişken ise) değişecektir X, j , bir modele eklenir: β^iXj

  1. Bu parametrenin karşılık gelen değişken ile ilişkili (modelinde arasında zaten var olan), veXi
  2. cevap değişkeni ile ilişkili, Y

Yukarıdakilerden herhangi biri ilişkisizse, yeni bir değişken eklendiğinde tahmini beta değişmez. Onlar ilintisiz olup olmadığının Not nüfus (yani , ya da ρ ( x j , Y ) = 0 ) önemsizdir. Önemli olan her iki örnek korelasyonunun da tam olarak 0 olmasıdır . Değişkenlerin tasarımla ilişkilendirilmeyecek şekilde manipüle edildiği deneysel verilerle çalışmadığınız sürece bu aslında pratikte asla geçerli olmayacaktır. ρ(Xi,Xj)=0 ρ(Xj,Y)=00

Ayrıca, parametrelerin değiştirdiği miktarın çok anlamlı olmayabileceğini unutmayın (en azından kısmen teorinize bağlıdır). Dahası, değiştirebilecekleri miktar yukarıdaki iki korelasyonun büyüklüğünün bir fonksiyonudur.

Farklı bir kayda göre, bu fenomeni "başka bir değişkenin katsayısından etkilenen belirli bir değişkenin katsayısı" olarak düşünmek doğru değildir. Birbirlerini etkileyen betalar değil . Bu fenomen, istatistiksel yazılımın eğim parametrelerini tahmin etmek için kullandığı algoritmanın doğal bir sonucudur. Bir durum düşünün her ikisi kaynaklanır X i ve X j sırayla birbirleriyle ilişkilidir. Eğer sadece X- ı modelde, varyasyon bazı olan Y nedeniyle X- j uygunsuz ilişkilendirilir X iYXiXjXiYXjXi. Değeri, söz konusu bu araçlar bastırıldığı; buna atlanan değişken sapma denir . Xi


Bu son cümleye değinmek için iyi bir nokta
Glen_b


@gung i Cevabınız eski biliyorum ama sadece bu denenmiş ideone.com/6CAkSR i yarattı nereye ve x 2 ilişkilidir ve x 1 ile ilintisiz olduğu y . I ilave Ancak x 1 modele de, X2'nin parametre değiştirilebilir X 1 ile ilintisizdir y . cevabınızda "yanıt değişkeni ile ilişkili, Y Yeni bir değişken eklendiğinde, yukarıdakilerden herhangi biri ilişkilendirilmemişse, tahmini bir beta değişmeyecektir " dediniz . Yanlış mıyım? yx2x1yx1x1yY
floyd

1
Sadece anlamlı bir şekilde ilişkilendirilmemeli, sadece anlamlı derecede ilişkili değil, @floyd. Eğer öyleyse, bir hata olmadıkça için beta değişmemiş olmalıdır. s1
gung - Monica'yı eski

@gung yanıtladığınız için çok teşekkürler. Böyle mükemmel veriler yaratmanın bir yolunu biliyor musunuz? biliyorum bu gerçek hayatta olamaz
floyd

3

Katsayıların değişmeyeceği matematiksel olarak mümkündür, ancak tüm bağımsız değişkenler birbirinden bağımsız olsa bile, gerçek verilerde hiçbir değişiklik olmayacaktır. Ancak, durum böyle olduğunda, değişiklikler (kesişme yeri hariç) 0 olur:

set.seed(129231)
x1 <- rnorm(100)
x2 <- rnorm(100)
x3 <- rnorm(100)
x4 <- rnorm(100)
y <- x1 + x2 + x3 + x4 + rnorm(100, 0, .2)
lm1 <- lm(y~x1+x2+x3)
coef(lm1)
lm2 <- lm(y~x1+x2+x3+x4)
coef(lm2)

Gerçek dünyada ise, bağımsız değişkenler sıklıkla birbirleriyle ilişkilidir. Bu durumda, denkleme bir 4. değişken eklenmesi diğer katsayıları, bazen çok değiştirecektir.

Sonra olası etkileşimler var .... ama bu başka bir soru.


1

Genel olarak, evet, bir değişken eklemek, önceki katsayıları hemen hemen her zaman değiştirir.

Gerçekten de, bu esasen, ihmal edilen ortak değişkenler nedeniyle katsayıların, hatta ters işaretin değişebileceği Simpson paradoksunun nedenidir .

Bunun gerçekleşmemesi için yeni değişkenlerin öncekilere dik olması gerekirdi. Bu genellikle tasarlanmış deneylerde olur, ancak bağımsız değişkenlerin deseninin planlanmadığı verilerde gerçekleşmesi pek olası değildir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.