Burada ince buz üzerindeyim ama deneyeyim: İstatistikler ve ekonometri arasındaki temel farkın, istatistiklerde regresörleri sabit olarak görme eğiliminde olduğumuz, dolayısıyla açık bir şekilde gelen terminoloji tasarım matrisi olduğumuzu hissediyorum (lütfen yorum yapın!) varsayım nerede olduğunu, deneylerin tasarımı biz ilk olan seçme ve daha sonra sabitleme açıklayıcı değişkenler.
Ancak çoğu veri seti, çoğu durum için bu kötü bir seçimdir. Açıklayıcı değişkenleri gerçekten gözlemliyoruz ve bu anlamda yanıt değişkenleri ile aynı temelde dururlar, her ikisi de kontrolümüz dışındaki rastgele bir süreç tarafından belirlenir. Dikkate alarakx"sabit" olarak, neden olabilecek pek çok sorunu dikkate almamaya karar veriyoruz.
Regresörleri stokastik olarak değerlendirirken, ekonometristlerin yapma eğiliminde olduğu gibi, bu tür problemleri düşünmeye çalışan modelleme olasılığını açıyoruz. O zaman dikkate alabileceğimiz ve modele dahil edebileceğimiz sorunların kısa bir listesi:
- regresörlerde ölçüm hataları
- regresörler ve hata terimleri arasındaki korelasyonlar
- regresör olarak gecikmiş cevap
- ...
Muhtemelen, bugün yapıldığından çok daha sık yapılmalıdır?
EDIT
Bir şekilde daha resmi olarak regresörlerin şartlandırılması için bir tartışma yapmaya çalışacağım. İzin Vermek( Y, X) rastgele bir vektör ol ve ilgi regresyonda Y üzerinde X, regresyonun, Y üzerinde X. Çok doğrusal varsayımlar altında doğrusal bir işlev olacaktır, ancak argümanlarımız buna bağlı değildir. Eklem yoğunluğunu her zamanki gibi çarpanlarına ayırmakla başlıyoruz
f(y,x)=f(y∣x)f(x)
ancak bu işlevler bilinmiyor, bu nedenle parametreli bir model kullanıyoruz
f(y,x;θ,ψ)=fθ(y∣x)fψ(x)
nerede θ koşullu dağılımı parametrelendirir ve ψ marjinal dağılımı X. Normal doğrusal modeldeθ=(β,σ2)fakat bu varsayılmaz. Tam parametre alanı(θ,ψ) dır-dir Θ×Ψ, bir Kartezyen ürün ve iki parametrenin ortak bir parçası yoktur.
Bu, öncelikle istatistiksel deneyin (veya veri oluşturma sürecinin, DGP'nin) çarpanlarına ayrılması olarak yorumlanabilir. X göre üretilir fψ(x)ve ikinci bir adım olarak, Y koşullu yoğunluğa göre üretilir fθ(y∣X=x). İlk adımın herhangi bir bilgi kullanmadığını unutmayın.θ, bu sadece ikinci aşamaya girer. İstatistikX için yardımcı θ, bkz. https://en.wikipedia.org/wiki/Ancillary_statistic .
Ancak, ilk adımın sonuçlarına bağlı olarak, ikinci adım az çok bilgilendirici olabilir. θ. Tarafından verilen dağıtımfψ(x) çok düşük varyansa sahip, diyelim ki xküçük bir bölgede yoğunlaşacak, bu yüzden tahmin etmek daha zor olacak θ. Dolayısıyla, bu iki aşamalı deneyin ilk kısmı,θtahmin edilebilir. Bu nedenle koşullandırmak doğaldırX=xregresyon parametreleri hakkında çıkarımda bulunur. Koşulluluk argümanı budur ve yukarıdaki taslak varsayımlarını açıklığa kavuşturmaktadır.
Tasarlanan deneylerde varsayımı çoğunlukla gözlemsel verilerle değil, çoğunlukla geçerli olacaktır. Sorunlara örnek olarak şunlar verilebilir: yordayıcı olarak gecikmeli yanıtlarla regresyon. Bu durumda öngörücüler üzerinde koşullandırma da cevabı koşullandıracaktır! (Daha fazla örnek ekleyeceğim).
Bu sorunları çok ayrıntılı olarak tartışan bir kitap Bilgi ve üstel ailelerdir: O.E Barndorff-Nielsen'in istatistik teorisinde . Bkz. Özellikle 4. bölüm. Yazar , bu durumda ayırma mantığının nadiren açıklandığını, ancak aşağıdaki referansları verdiğini söylüyor : RA Fisher (1956) İstatistiksel Yöntemler ve Bilimsel Çıkarım §4.3ve Sverdrup (1966) Karar teorisinin mevcut durumu ve Neyman-Pearson teorisi .