Regresyon hata terimi açıklayıcı değişkenlerle nasıl ilişkilendirilebilir?


22

Bu ilk cümlesi wiki "açıklayıcı değişken hata terimi ile ilişkili olduğunda ekonometri olarak, bir içsellik sorun oluşur. O sayfa iddiaları 1 "

Sorum şu ki, bu nasıl olabilir? Regresyon beta, hata terimi tasarım matrisinin sütun alanına dik olacak şekilde seçilmemiştir mı?


9
Regresyon beta şekilde seçilir kalıntı matrisinin kolon alanı ortogonaldir. Ve eğer hata terimi tasarım matrisinin sütun alanıyla ortogonal değilse, bu gerçek beta için korkunç bir tahmin verebilir ! (yani modeliniz, katsayıları regresyon ile tutarlı bir şekilde tahmin etmek için gerekli varsayımları karşılamıyorsa).
Matthew Gunn

3
Hata teriminin ortogonalitesi ve tasarım matrisinin sütun alanı, tahmin yönteminizin bir özelliği değildir (örneğin, sıradan en küçük kareler regresyonu), modelin bir özelliğidir (örneğin, yi=a+bxi+ϵi ).
Matthew Gunn

Düzenlemenizin yeni bir soru olması gerektiğini düşünüyorum çünkü ne istediğinizi büyük ölçüde değiştirmiş görünüyorsunuz. Buna her zaman geri dönebilirsin. (Ben de bunu daha iyi bir kelime gerek - Eğer yazarken o zaman etkisi net değilim "etkisi ne olurdu" ne ?) Yeni bir soru sorarak genellikle bir avantaj olacaktır fazla dikkat ürettiğini Not sizin için varolan bir düzenleme üzerinde.
Silverfish,

Yanıtlar:


28

İki tür "hata" terimini karıştırıyorsunuz. Vikipedi aslında arasında bu ayrım için ayrılmış bir makale var hatalar ve artıklar .

OLS regresyon, artıklardan (hata veya hata teriminin ε^ gerçekten garanti edilir gerilediği varsayılarak bir kesişme terimi içeren, belirleyici değişkenlerin bağımsız olduğu.

Ancak "doğru" hatalar ε bu nedir içselliğin olarak sayar de onlarla ilişkili olabilir ve olduğunu.

İşleri basitleştirmek için, regresyon modelini göz önünde bulundurun ( y'nin değerini oluşturmayı varsaydığımız teorik model olan " veri oluşturma süreci " veya "DGP" olarak tanımlanmış olduğunu görebilirsiniz .y ):

yi=β1+β2xi+εi

Prensip olarak, neden modelimizde εx ile ilişkilendirilemediğinin bir nedeni yoktur , bununla birlikte standart OLS varsayımlarını bu şekilde ihlal etmemeyi tercih ederiz. Örneğin, bu olabilir y bizim modelinden çıkarılmıştır başka değişkene bağlıdır ve bu (hata teriminin içine dahil edilmiştir ε biz dışındaki her şeyin bir tutma nerede x etkileyen y ). Bu ihmal değişken de korelasyon ise x , o zaman ε içinde ilişkilendirilebilir dönecek x ve özellikle (içsel hale var,εyεxyxεx ihmal değişken sapma ).

Regresyon modelinizi mevcut veriler üzerinde tahmin ettiğinizde,

yi=β^1+β^2xi+ε^i

Çünkü EKK eserleri * yol, artıklar ε ile ilintisiz olacak x . Ama bu kaçınılması içsel hale anlamına gelmez - biz arasındaki korelasyonu analiz ederek bunu tespit edemez sadece araç £ değerinin ve x (sayısal hataya kadar) olacak, sıfır. Ve OLS varsayımları ihlal edildiğinden, tarafsızlık gibi güzel özelliklere artık artık garanti edilmiyor, OLS hakkında çok fazla zevk alıyoruz. Bizim tahmin β 2 ağırlık verilir.ε^xε^xβ^2


Aslında ε ile ilintisizdir x()ε^x biz katsayılar için elimizden geleni tahminleri seçmek için kullandıkları "normal denklemler" dan hemen izler.

Eğer matris ayarına alışık değilseniz ve yukarıdaki örneğimde kullanılan iki değişkenli modele sadık kalırsam, kare artıkların toplamı ve optimum bulmak b 1 = β 1 ve b 2 =S(b1,b2)=i=1nεi2=i=1n(yib1b2xi)2b1=β^1 bunu en aza indiren normal denklemleri buluyoruz, öncelikle tahmini kesişim için birinci derece koşul:b2=β^2

Sb1=i=1n2(yib1b2xi)=2i=1nε^i=0

arasında kovaryans formülü nedenle artıkların toplamı (ve dolayısıyla ortalama), sıfır olan Şekil olduğu £ değerinin ve herhangi bir değişken x sonra azaltır 1ε^x. Tahmini eğim için birinci derece koşulu göz önüne alarak bunun sıfır olduğunu görüyoruz;1n1i=1nxiε^i

Sb2=i=1n2xi(yib1b2xi)=2i=1nxiε^i=0

Matrislerle çalışmaya alışkınsanız, bunu ; birinci dereceden durumu en aza indirmek için , S ( b ) en uygun olarak , b = β olduğu:S(b)=εε=(yXb)(yXb)S(b)b=β^

dSdb(β^)=ddb(yybXyyXb+bXXb)|b=β^=2Xy+2XXβ^=2X(yXβ^)=2Xε^=0

This implies each row of X, and hence each column of X, is orthogonal to ε^. Then if the design matrix X has a column of ones (which happens if your model has an intercept term), we must have i=1nε^i=0 so the residuals have zero sum and zero mean. The covariance between ε^ and any variable x is again 1n1i=1nxiε^i and for any variable x included in our model we know this sum is zero, because ε^ is orthogonal to every column of the design matrix. Hence there is zero covariance, and zero correlation, between ε^ and any predictor variable x.

If you prefer a more geometric view of things, our desire that y^ lies as close as possible to y in a Pythagorean kind of way, and the fact that y^ is constrained to the column space of the design matrix X, dictate that y^ should be the orthogonal projection of the observed y onto that column space. Hence the vector of residuals ε^=yy^ is orthogonal to every column of X, including the vector of ones 1n if an intercept term is included in the model. As before, this implies the sum of residuals is zero, whence the residual vector's orthogonality with the other columns of X ensures it is uncorrelated with each of those predictors.

Vectors in subject space of multiple regression

But nothing we have done here says anything about the true errors ε. Assuming there is an intercept term in our model, the residuals ε^ are only uncorrelated with x as a mathematical consequence of the manner in which we chose to estimate regression coefficients β^. The way we selected our β^ affects our predicted values y^ and hence our residuals ε^=yy^. If we choose β^ by OLS, we must solve the normal equations and these enforce that our estimated residuals ε^ are uncorrelated with x. Our choice of β^ affects y^ but not E(y) and hence imposes no conditions on the true errors ε=yE(y). It would be a mistake to think that ε^ has somehow "inherited" its uncorrelatedness with x from the OLS assumption that ε should be uncorrelated with x. The uncorrelatedness arises from the normal equations.


1
does your yi=β1+β2xi+εi mean regression using population data? Or what does it mean precisely?
denizen of the north

@user1559897 Yes, some textbooks will call this the "population regression line" or PRL. It's the underlying theoretical model for the population; you may also see this called the "data generating process" in some sources. (I tend to be a bit careful about saying it is the "regression on the population"... if you have a finite population, e.g. 50 states of the USA, that you perform the regression on, then this isn't quite true. If you are actually running a population on some data in your software, you are really talking about the estimated version of the regression, with the "hats")
Silverfish

I think i see what you are saying. If i understand you correctly, the error term in the model yi=β1+β2xi+εi could have non-zero expectation as well because it is a theoretical generating process, not a ols regression.
denizen of the north

This is a great answer from statistical inference perspective. What do you think the effect would be if prediction accuracy is the primary concern? See the edit of the post.
denizen of the north

16

Simple example:

  • Let xi,1 be the number of burgers I buy on visit i
  • Let xi,2 be the number of buns I buy.
  • Let b1 be the price of a burger
  • Let b2 be the price of a bun.
  • Independent of my burger and bun purchases, let me spend a random amount a+ϵi where a is a scalar and ϵi is a mean zero random variable. We have E[ϵi|X]=0.
  • Let yi be my spending on a trip to the grocery store.

The data generating process is:

yi=a+b1xi,1+b2xi,2+ϵi

If we ran that regression, we would get estimates a^, b^1, and b^2, and with enough data, they would converge on a, b1, and b2 respectively.

(Technical note: We need a little randomness so we don't buy exactly one bun for each burger we buy at every visit to the grocery store. If we did this, x1 and x2 would be collinear.)

An example of omitted variable bias:

Now let's consider the model:

yi=a+b1xi,1+ui

Observe that ui=b2xi,2+ϵi. Hence

Cov(x1,u)=Cov(x1,b2x2+ϵ)=b2Cov(x1,x2)+Cov(x1,ϵ)=b2Cov(x1,x2)

Is this zero? Almost certainly not! The purchase of burgers x1 and the purchase of buns x2 are almost certainly correlated! Hence u and x1 are correlated!

What happens if you tried to run the regression?

If you tried to run:

yi=a^+b^1xi,1+u^i

Your estimate b^1 would almost certainly be a poor estimate of b1 because the OLS regression estimates a^,b^,u^ would be constructed so that u^ and x1 are uncorrelated in your sample. But the actual u is correlated with x1 in the population!

What would happen in practice if you did this? Your estimate b^1 of the price of burgers would ALSO pickup the price of buns. Let's say every time you bought a $1 burger you tended to buy a $0.50 bun (but not all the time). Your estimate of the price of burgers might be $1.40. You'd be picking up the burger channel and the bun channel in your estimate of the burger price.


I like your burger bun example. You explained the problem from the perspective of statistical inference, ie inferring the effect of burger on price. Just wondering what the effect would be if all I care about is prediction, i.e prediction MSE on a test dataset? The intuition is that it is not going to be as good, but is there any theory to make it more precise? (this introduced more bias, but less variance, so the overall effect is not apparent to me. )
denizen of the north

1
@user1559897 If you just care about predicting spending, then predicting spending using the number of burgers and estimating b^1 as around $1.40 might work pretty well. If you have enough data, using the number of burgers and buns would undoubtedly work better. In short samples, L1 regularlization (LASSO) might send one of the coefficients b1 or b2 to zero. I think you're correctly recognizing that what you're doing in regression is estimating a conditional expectation function. My point is for that that function to capture causal effects, you need additional assumptions.
Matthew Gunn

3

Suppose that we're building a regression of the weight of an animal on its height. Clearly, the weight of a dolphin would be measured differently (in different procedure and using different instruments) from the weight of an elephant or a snake. This means that the model errors will be dependent on the height, i.e. explanatory variable. They could be dependent in many different ways. For instance, maybe we tend to slightly overestimate the elephant weights and slightly underestimate the snake's, etc.

So, here we established that it is easy to end up with a situation when the errors are correlated with the explanatory variables. Now, if we ignore this and proceed to regression as usual, we'll notice that the regression residuals are not correlated with the design matrix. This is because, by design the regression forces the residuals to be uncorrelated. Note, also that residuals are not the errors, they're the estimates of errors. So, regardless of whether the errors themselves are correlated or not with the independent variables the error estimates (residuals) will be uncorrelated by the construction of the regression equation solution.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.