Lojistik regresyonda atlanan değişken sapma ile sıradan en küçük kareler regresyonunda atlanan değişken sapma


17

Lojistik ve lineer regresyonda atlanan değişken önyargı hakkında bir sorum var.

Diyelim ki bazı değişkenleri doğrusal regresyon modelinden çıkarıyorum. Atlanan değişkenlerin modelime dahil ettiğim değişkenlerle ilgisiz olduğunu varsayalım. Bu atlanan değişkenler, modelimdeki katsayıları etkilemez.

Ancak lojistik regresyonda bunun doğru olmadığını öğrendim. Atlanan değişkenler, dahil edilen değişkenlerle katsayıları saptırır; atlanan değişkenler, dahil edilen değişkenlerle ilişkilendirilmemiş olsa bile. Bu konuda bir makale buldum, ancak bunun başını veya kuyrukunu yapamıyorum.

İşte kağıt ve bazı powerpoint slaytları.

Önyargı, görünüşe göre, daima sıfıra doğrudur. Herkes bunun nasıl çalıştığını açıklayabilir mi?


Lojistik regresyon modelinin temeldeki "gizli değişken" doğrusal regresyon modelinden nasıl ortaya çıktığını biliyor musunuz?
Alecos Papadopoulos

@AlecosPapadopoulos Ben biri için değilim. Yemek nedir?
Alexis

Bunu tartışan başka makaleler de var, ancak bağlandığınız en kolayı. Yani geliştirebileceğimi sanmıyorum.
Maarten Buis

Sevgili Bay Papadopoulos: Gizli değişken fikri okudum. Neden soruyorsun?
ConfusedEconometricsUndergrad

@ Alexis Bkz. Örneğin bu yazı, stats.stackexchange.com/questions/80611/… ve wikipedia makalesi, en.wikipedia.org/wiki/… . Bu yaklaşım, Olasılıklar düzeyinde hangi modeli alacağımızı belirleyen temel modelin hata döneminde yaptığımız varsayım olduğunu da açıklığa kavuşturmaktadır. Başka bir örnek olarak, altta yatan hatanın bir üniforma takip ettiğini varsayarsak, Doğrusal Olasılık Modelini elde ederiz, bkz. Stats.stackexchange.com/questions/81789
Alecos Papadopoulos

Yanıtlar:


21

Eğer “probit” modelini incelersek “zayıflama yanlılığı” durumu daha net bir şekilde ortaya konabilir, ancak sonuç lojistik regresyona da yansır.

Koşullu Olasılık Modelleri (Lojistik (logit), "probit" ve "Doğrusal Olasılık" modelleri) altında gizli (gözlemlenemeyen) bir doğrusal regresyon modeli önerebiliriz:

y=Xβ+u

burada sürekli ölçülemez bir değişkendir (ve X regresör matrisidir). Hata teriminin regresörlerden bağımsız olduğu ve yoğunluğu sıfır civarında simetrik olan bir dağılımı ve bizim durumumuzda standart normal dağılım F U ( u ) = Φ ( u ) olduğu varsayılmaktadır .yXFU(u)=Φ(u)

Gözlemlediğimiz şeyin, yani ikili değişken , gözlemlenemez y ∗' nin bir Gösterge işlevi olduğunu varsayıyoruz :yy

y=1ify>0,y=0ify0

Sonra soruyoruz " değeri alma olasılığı nediryregresörler göz önüne alındığında 1nedir?" (yani koşullu bir olasılığa bakıyoruz). Bu1

P(y=1X)=P(y>0X)=P(Xβ+u>0X)=P(u>XβX)=1Φ(Χβ)=Φ(Xβ)

yoğunluk dağılımının simetrisinden sıfıra yakın olan standart kümülatif dağılım fonksiyonunun "yansıtıcı" özelliğinden dolayı son eşitlik. Biz farz olmasına rağmen Not o bağımsızdır X , üzerinde iklimlendirme X miktar tedavi etmek amacıyla ihtiyaç duyulanuXX tesadüfi olmayan şekilde.Xβ

X β = b 0 + b 1 X 1 + b 2 X 2 olduğunu varsayarsakXβ=b0+b1X1+b2X2 , teorik modeli elde ederiz.

(1)P(y=1X)=Φ(b0+b1X1+b2X2)

Let hemen be bağımsız X 1 ve hatalı altta yatan regresyon tarifname dışındadır. Bu yüzdenX2X1

daha ileri varsayalım x 2 , aynı zamanda, normal bir rastgele değişken X- 2 ~ , N ( μ 2 , σ 2 2 ) . Ama bu şu anlama geliyor

y=b0+b1X1+ϵ
X2X2N(μ2,σ22)

ϵ=u+b2X2N(b2μ2,1+b22σ22)

Normal dağılımın (ve bağımsızlık varsayımının) eklenmesi nedeniyle kapanma nedeniyle. Öncekiyle aynı mantığı uygulayarak, burada

P(y=1X1)=P(y>0X1)=P(b0+b1X1+ϵ>0X1)=P(ϵ>b0b1X1X1)

Standartlaştırma ϵ

P(y=1X1)=1P(ϵb2μ21+b22σ22(b0+b2μ2)1+b22σ22b11+b22σ22X1X1)

(2)P(y=1X1)=Φ((b0+b2μ2)1+b22σ22+b11+b22σ22X1)

and one can compare models (1) and (2).

The above theoretical expression, tells us where our maximum likelihood estimator of b1 is going to converge, since it remains a consistent estimator, in the sense that it will converge to the theoretical quantity that really exists in the model (and of course, not in the sense that it will find the "truth" in any case):

b^1pb11+b22σ22|b^1|<|b1|

which is the "bias towards zero" result.

We used the probit model, and not the logit (logistic regression), because only under normality can we derive the distribution of ϵ. The logistic distribution is not closed under addition. This means that if we omit a relevant variable in logistic regression, we also create distributional misspecification, because the error term (that now includes the omitted variable) no longer follows a logistic distribution. But this does not change the bias result (see footnote 6 in the paper linked to by the OP).

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.