Bir öngörücü için iki regresyon eğimini iki farklı sonuç üzerinde nasıl karşılaştırırım?


10

İki regresyon eğimini karşılaştırmam gerekiyor:

$
y_1 ~ a + b_1x
y_2 ~ a + b_2x
$

B1 ve b2'yi nasıl karşılaştırabilirim?

Veya kemirgenlerdeki özel örneğimin dilinde, karşılaştırmak istiyorum

antero-posterior diameter ~  a + b1 * humeral length   
de naso-occipital length  ~  a + b2 * humeral length 

2
Her iki değişken ile bir regresyon modelini hesaplayın PLUS iki değişkenin etkileşimi (humerus uzunluğu antero-posterior çap). Etkileşim, iki değişkenin eğimlerinin paralellik varsayımını test eder. Etkileşim terimi önemliyse, eğimler farklıdır. ×
COOLSerdash

Teşekkürler!! Ancak humerusun humerus uzunluğu ve antero-posterior çapı DV'tir ve nazo-oksipital uzunluk IV'tür. Önerdiğin gibi analizi yapabilir miyim?
Dra.

1
@ Dra.AlejandraEcheverria İki bağımsız değişkenli bir doğrusal regresyon modeliniz olduğunu ve bağımsız değişkenler üzerindeki iki katsayının eşitliğini test etmek istediğinizi mi, yoksa iki basit doğrusal regresyon modeliniz olduğunu ve iki modeldeki katsayılar?
Graeme Walsh

1
Sevgili @Graeme Walsh, iki basit doğrusal regresyon modelim var ve iki model arasındaki katsayıları karşılaştırmak istiyorum.
Dra.

Yanıtlar:


11

Tamam, durumunuza bakalım. Temel olarak iki regresyonunuz var (APD = antero-posterior çap, NOL = nazo-oksipital uzunluk, HL = humerus uzunluğu):

  1. APD=β0,1+β1,1NOL
  2. HL=β0,2+β1,2NOL

hipotezini test etmek için şunları yapabilirsiniz:β1,1=β1,2

  1. APD ekleyerek yeni bir bağımlı değişken ( ) oluşturunYnew
  2. Kendine NOL ekleyerek yeni bir bağımsız değişken oluşturun ( ) (yani NOL'yi çoğaltarak)Xnew
  3. Veriler ikinci veri kümesinden (HL ile) geliyorsa 1 ve veri ilk veri kümesinden (APD) geliyorsa 0 olan bir kukla değişken ( ) oluşturun.D
  4. Bağımlı değişken olarak ile regresyonu ve açıklayıcı değişkenler olarak ile kukla değişken arasındaki etkileşimi ve ana etkileri hesaplayın. @Jake Westfall EDIT , kalan standart hatanın her DV için iki regresyon için farklı olabileceğine dikkat çekti. Jake , kalan standart hatanın iki regresyon arasında farklı olmasına izin veren genelleştirilmiş en küçük kareler modeline (GLS) uyacak cevabı verdi . X n e w DYnewXnewD

Yapılmış verilerle (in R) bir örneğe bakalım :

# Create artificial data

library(nlme) # needed for the generalized least squares

set.seed(1500)

NOL <- rnorm(10000,100,12)
APD <- 10 + 15*NOL+ rnorm(10000,0,2)
HL <- - 2  - 5*NOL+ rnorm(10000,0,3) 

mod1 <- lm(APD~NOL)
mod1

Coefficients:
(Intercept)          NOL
      10.11        15.00

mod2 <- lm(HL~NOL)
mod2

Coefficients:
(Intercept)          NOL
      -1.96        -5.00

# Combine the dependent variables and duplicate the independent variable

y.new <- c(APD, HL)
x.new <- c(NOL, NOL)

# Create a dummy variable that is 0 if the data are from the first data set (APD) and 1 if they are from the second dataset (HL)

dummy.var <- c(rep(0, length(APD)), rep(1, length(HL)))

# Generalized least squares model allowing for differend residual SDs for each regression (strata of dummy.var)

gls.mod3 <- gls(y.new~x.new*dummy.var, weights=varIdent(form=~1|dummy.var))

Variance function:
 Structure: Different standard deviations per stratum
 Formula: ~1 | dummy.var 
 Parameter estimates:
       0        1 
1.000000 1.481274 

Coefficients:
                    Value  Std.Error   t-value p-value
(Intercept)      10.10886 0.17049120    59.293       0
x.new            14.99877 0.00169164  8866.430       0
dummy.var       -12.06858 0.30470618   -39.607       0
x.new:dummy.var -19.99917 0.00302333 -6614.939       0

Not: için kesme noktası ve eğimi , ilk regresyondaki ile aynıdır (mod1). Katsayısı , iki regresyonun kesişmesi arasındaki farkı ifade eder. Ayrıca: ikinci regresyonun artık standart sapmasının birincinin SD'sinden daha büyük olduğu tahmin edilmiştir (yaklaşık 1.5 kat daha büyük). Bu tam olarak biz veri (3 vs 2) üretimine belirtilen ne. Neredeyse geldik: Etkileşim teriminin katsayısı ( ) eğimlerin eşitliğini test ediyor. Burada ikinci regresyonun (mod2) eğimi yaklaşık veya yaklaşık . farkı β x . n e w - β x . n e w × d u m m y . v , bir R 15 - 20 = - 5 20Xnewdummy.varx.new:dummy.varβx.newβx.new×dummy.var1520=520verileri oluştururken tam olarak belirttiğimiz şeydir. Stata'da çalışıyorsanız, burada güzel bir açıklama var.

Uyarı: Bu sadece antero-posterior çap ve nazo-oksipital uzunluk (iki bağımlı değişken) bağımsızsa işe yarar . Aksi takdirde çok karmaşık olabilir.

DÜZENLE

Sitedeki bu iki gönderi aynı soruyu ele alıyor: Birinci ve ikinci .


Sadece karışıklığı önlemek için, NOL ve HL'nin karışık olduğu anlaşılıyor. HL belirleyiciydi, NOL ikinci DV idi (ve işaret ettiğiniz gibi APD ilk DV idi). Sadece posterin kendisinin bir yorumda değişkenlerinin durumunu değiştirdiğini fark
etsem de

@Patrick Coulombe Gösterdiğiniz için teşekkürler. Dünkü yorumundan belli değildi.
COOLSerdash

@PatrickCoulombe İkinci bir düşüncede: Sanırım Jeromy Anglim Alejandra'nin yorumunu yanlış anladı ve değişkenleri değiştirdi.
COOLSerdash

1
Bu çözüm makul görünüyor, ancak kombine / interaktif modelinizde, kalan varyansın her iki seviyede dummy.var, yani her iki DV için de eşit olduğu varsayıldığından biraz endişeliyim. DV'lerin orijinal bağlamda ne olduğuna bağlı olarak, kalan varyansların her DV'nin ayrı regresyonlarında radikal olarak farklı olması mümkündür. Önerdiğiniz aynı temel yaklaşımı kullanmanın daha iyi olup olmayacağını merak ediyorum, ancak glsher DV için farklı kalıntı varyanslarını tahmin ettiğimiz bir modelle. Bunun hakkında bir fikrin var mı?
Jake Westfall

1
@COOLSerdash Elbette, şöyle görünecektir:library(nlme); mod4 <- gls(y.new~x.new*dummy.var, weights=varIdent(form= ~1 | dummy.var))
Jake Westfall
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.