Frisch-Waugh teoreminin faydası


15

İncelemediğim ekonometride Frish Waugh teoremini öğretmem gerekiyor.

Arkasındaki matematiği anladım ve umarım bu fikir de "çok doğrusal bir modelden belirli bir katsayı için elde ettiğiniz katsayı, diğer regresörlerin etkisini" ortadan kaldırırsanız "basit regresyon modelinin katsayısına eşittir. Yani teorik fikir biraz havalı. (Tamamen yanlış anladıysam bir düzeltmeyi memnuniyetle karşılarım)

Ancak bazı klasik / pratik kullanımları var mı?

DÜZENLEME : Bir yanıtı kabul ettim, ancak yine de başka örnekler / uygulamalar getiren yeni yanıtlar almak istiyorum.



1
Dougherty'nin Ekonometriye Giriş , Frisch-Waugh-Lovell teoremini kullanmanın başka bir örneğinden bahsediyor. Zaman serilerinin ekonometrik analizinin ilk günlerinde, değişkenlerin gerilemeden önce hepsini yok etmek için belirleyici zaman eğilimlerine sahip olduğu modellerde oldukça yaygındı. Ancak FWL ile, sadece bir regresör olarak bir zaman eğilimi ekleyerek aynı katsayıları elde edersiniz ve dahası, bu "doğru" standart hataları verir, çünkü 1 df'nin bu şekilde tüketildiğini kabul eder.
Silverfish

1
Dougherty prosedüre karşı uyarıyor, bu yüzden öğretici olmasına rağmen bu harika bir örnek değil. Ekonomik değişkenler genellikle trend durağan olmaktan ziyade farklılık durağan görünmektedir, bu nedenle bu tür deneme girişimleri işe yaramaz ve sahte gerilemelere neden olabilir.
Silverfish

1
@Silverfish: FWL tamamen cebirsel bir tekniktir, bu nedenle altta yatan DGP göz önüne alındığında belirleyici bir eğilim çıkarmanın "doğru" olup olmadığı konusu şüphesiz önemlidir, ancak FWL ile ilgisizdir, bu nedenle örneğiniz için tam olarak geçerli bir yöntemdir. OP'ler puan tahminlerini elde etmenin iki yolu hakkında soru sormaktadır.
Christoph Hanck

2
Bu ilişkiden başta kavramsal amaçlar için ve regresyon olaylarına ilginç örnekler sağlamak için birçok görevden faydalandım. Bakınız inter alia , stats.stackexchange.com/a/46508 , stats.stackexchange.com/a/113207 ve stats.stackexchange.com/a/71257 .
whuber

Yanıtlar:


14

En Küçük Kareler Kukla Değişkenler (LSDV) modeli olarak da bilinen sabit efektler paneli veri modelini düşünün.

y = X β + D α + ϵ , D N T × N αbLSDV , modeline doğrudan OLS uygulanarak hesaplanabilir burada , aptal matrisidir ve , bireysel özel sabit efektleri temsil eder.

y=Xβ+Dα+ϵ,
DNT×Nα

yi hesaplamanın başka bir yolu da, demeaned edilmiş bir versiyonunu elde etmek için dönüşümde sözde modeli normal modellere uygulamaktır, yani Burada, , üzerindeki gerilemenin artık üretici matrisi . M [ D ] y = M [ D ] X β + M [ D ] ϵ . M [ D ] = I - D ( D D ) - 1 D DbLSDV

M[D]y=M[D]Xβ+M[D]ϵ.
M[D]=ID(DD)1DD

Frisch-Waugh-Lovell teoremine göre, ikisi eşdeğerdir, çünkü FWL bir regresyonun (burada ) regresyon katsayılarının bir alt kümesini hesaplayabileceğinizi söyler .β^

  1. diğer regresörlerde (burada, ) gerileme , artıkları kaydetme (burada, zamandan yoksun veya , çünkü bir sabit üzerindeki regresyon sadece değişkenleri yok eder),yDyM[D]y
  2. gerileme ile ve artıklar tasarrufu veXDM[D]X
  3. kalıntıların birbirine , üzerinde .M[D]yM[D]X

İkinci sürüm çok daha yaygın olarak kullanılmaktadır, çünkü tipik panel veri kümelerinde binlerce panel birimi , bu nedenle ilk yaklaşım, binlerce regresör ile bir regresyon çalıştırmanızı gerektirecektir, bu da günümüzde hızlı bir şekilde sayısal olarak iyi bir fikir değildir. bilgisayarlar, in tersini hesaplamak çok pahalıya mal olurken, ve zamandan arındırma maliyeti düşüktür .N(D:X)(D:X)yX


Çok teşekkürler, bu benim aradığım cevap, aslında kullanmam biraz gelişmiş olsa da. Cevabınız benim için iyi, ama başkalarım olursa mutlu olurum, sizinkini kabul etmem gerekir mi?
Anthony Martin

Eğer yardımcı olsaydı bunu yapmak uygun olurdu. Ancak kabul etmek, daha iyi cevap alma şansınızı azaltacaktır, bu yüzden bunu kabul etmeden önce beklemeyi düşünebilirsiniz. Ödül, daha fazla cevap alma şansınızı daha da artıracaktır - CV'de, soruların miktarı göz önüne alındığında soruları düzenli olarak cevaplayan yeterli kullanıcı olmadığı için, tek bir cevap bile diğer aktif kullanıcıların soruların ele alındığı sonucuna varmasına neden olabilir. (Aşağıda biraz daha basit bir cevap
yayınladım

7

İşte ilk cevabımın, pratik olarak daha az alakalı, ancak sınıf kullanımı için "satması" daha kolay olduğuna inandığım basitleştirilmiş bir versiyonu.

Regresyon ve aynı , . Bu şu şekilde görülebilir: take ve dolayısıyla böylece Bu nedenle, bir değişkende değişkenlerin gerilemesinin kalıntıları,

yi=β1+j=2Kβjxij+ϵi
yiy¯=j=2Kβj(xijx¯j)+ϵ~i
β^jj=2,,Kx1=1:=(1,,1)M1xj=xj-1n-11xj=xj-1 ˉ x j=:xj- ˉ x j. M1xjyi
M1=I1(11)11=I11n,
M1xj=xj1n11xj=xj1x¯j=:xjx¯j.
M1xj, sadece küçük değişkenlerdir (aynı mantık elbette için de ).yi

4

İşte başka, daha dolaylı, ama ilginç bir inanıyorum, yani sabit bir zaman serisinin kısmi otokorelasyon katsayısını hesaplamak için farklı yaklaşımlar arasındaki bağlantı.

Tanım 1

Y^tμ=α1(m)(Yt1μ)+α2(m)(Yt2μ)++αm(m)(Ytmμ)
mαm(m)

mYtYt1,,Ytm+1ρmYtYtm

αj(m)ZtXt

E[Xt(ZtXtα(m))]=0
α(m)
α(m)=[E(XtXt)]1E[XtZt]
Zt=Ytμ
Xt=[(Yt1μ),(Yt2μ),,(Ytmμ)]
E(XtXt)=(γ0γ1γm1γ1γ0γm2γm1γm2γ0)
E(XtZt)=(γ1γm)
α(m)=(γ0γ1γm1γ1γ0γm2γm1γm2γ0)1(γ1γm)
mα(m)

Yani, bir çeşit çoklu regresyon yürütüyoruz ve diğerleri için kontrol ederken bir ilgi katsayısı buluyoruz.

Tanım 2

mYt+mYt1,,Ytm+1YtYt1,,Ytm+1

Bu nedenle, ara gecikmeler için bir tür ilk kontrol ve daha sonra artıkların korelasyonunu hesaplıyoruz.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.