Çok değişkenli doğrusal regresyon ve çeşitli tek değişkenli regresyon modelleri


11

Tek değişkenli regresyon ayarlarında,

y=Xβ+noise

burada bir vektör gözlem ve tasarım matris belirleyicileri. Çözüm .yRnnXRn×mmβ0=(XTX)1Xy

Çok değişkenli regresyon ayarlarında,

Y=Xβ+noise

burada gözlem matrisidir ve farklı gizli değişkenler. Çözüm .yRn×pnpβ0=(XTX)1XY

Sorum şu: farklı tek değişkenli doğrusal regresyon yapmaktan ne kadar farklı? Burada , ikinci durumda bağımlı değişkenler arasındaki korelasyonu dikkate aldığımızı okudum , ama bunu matematikten görmüyorum.p


1
Bkz. Frisch-Waugh-Lovell teoremi.
rsm

1
@amorfati: Doğru anlarsam, onlar aynıdır. İnsanlar neden onlara farklı davranıyor?
Roy

Yanıtlar:


6

Klasik çok değişkenli lineer regresyon ortamında, modelimiz var:

Y=Xβ+ϵ

burada bağımsız değişkenleri, birden fazla tepki değişkenini temsil eder ve bir iid Gauss gürültü terimidir. Gürültü sıfır ortalamaya sahiptir ve yanıt değişkenleri arasında ilişkilendirilebilir. Ağırlıklar için maksimum olabilirlik çözümü en küçük kareler çözümüne eşdeğerdir (gürültü korelasyonlarına bakılmaksızın) [1] [2]:XYϵ

β^=(XTX)1XTY

Bu, her tepki değişkeni için ayrı bir regresyon probleminin bağımsız olarak çözülmesine eşdeğerdir. Bu durum görülebilir olduğu inci kolon (ağırlıkları içeren çarpılmasıyla elde edilebilir inci çıkış değişkeni) ile sütunu ( yanıt değişkeninin değerlerini içerir ).iβ^i(XTX)1XTiYi

Bununla birlikte, çok değişkenli lineer regresyon, bireysel regresyon problemlerini ayrı ayrı çözmekten farklıdır, çünkü istatistiksel çıkarım prosedürleri çoklu cevap değişkenleri arasındaki korelasyonları açıklar (örneğin bkz. [2], [3], [4]). Örneğin, gürültü kovaryans matrisi örnekleme dağılımlarında, test istatistiklerinde ve aralık tahminlerinde gösterilir.

Her yanıt değişkeninin kendi ortak değişkenlerine sahip olmasına izin verirsek başka bir fark ortaya çıkar:

Yi=Xiβi+ϵi

burada yanıt değişkenini temsil eder ve ve karşılık gelen eş değişkenler ve gürültü terimini temsil eder. Yukarıdaki gibi, gürültü terimleri tepki değişkenleri arasında ilişkilendirilebilir. Bu ortamda, en küçük karelerden daha verimli olan ve her tepki değişkeni için ayrı regresyon problemlerinin çözülmesine indirgenemeyecek kestiriciler vardır. Örneğin, bkz. [1].YiiXiϵi

Referanslar

  1. Zellner (1962) . Birleşim eğilimi için görünüşte ilgisiz regresyonları ve testleri tahmin etmenin etkili bir yöntemi
  2. Helwig (2017) . Çok Değişkenli Doğrusal Regresyon [Slaytlar]
  3. Fox ve Weisberg (2011) . R'de çok değişkenli doğrusal modeller. [Ek: Uygulamalı Regresyona R Arkadaşı]
  4. Maitra (2013) . Çok Değişkenli Doğrusal Regresyon Modelleri. [Slaytlar]

1
Teşekkürler, şimdi daha net. Bu formülasyon için bir referansınız var mı? Sadece en küçük kare formuyla karşılaştım. Ayrıca, bunu uygulayan bir Python paketi biliyor musunuz?
Roy

1
İkincisi referans talebi. Korelasyon sadece sonuçların kovaryansı olarak mı kabul edilir yoksa koşullu kovaryans ise bir çeşit öğrenir mi?
generic_user

@ User20160 bunlara atıfta bulunduğundan% 100 emin değilim ama aklında olanların denklemleri / genelleştirilmiş denklemleri tahmin ettiğini düşünüyorum. EE / GEE, kovaryans yapısı yanlış tanımlandığında tutarlıdır ve ayrıca beklenen kovaryans yapısını ayarlayabilirsiniz. Bununla birlikte, bu modeller kapalı bir formla OLS'nin aksine yinelemeli olarak tahmin edilir. Python'da GEE / EE'yi tahmin edebilmelisiniz, ancak paketleri bilmiyorum.
iacobus

1
@Roy Cevabı tekrar yazdım ve referanslar ekledim. Orijinal yazım, düzeltilmiş yayının son paragrafı olan davayı varsayıyordu. Daha sonra daha fazla ayrıntı eklemeye çalışacağım.
user20160
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.