Çoklu doğrusal regresyon için en küçük kareler nasıl hesaplanır?


30

Basit doğrusal regresyon durumunda y=β0+β1x , en küçük kareler tahmincisini türetebilirsiniz , değerini tahmin için bilmek zorundaβ 0 β 1β^1=(xix¯)(yiy¯)(xix¯)2β^0β^1

olduğunu varsayalım , tahmin etmeden nasıl ? veya bu mümkün değil mi?β 1 β 2y=β1x1+β2x2β^1β^2


1
Değişkenlerden birini ihmal edebilir ve bağımsızlarsa hala diğeriyle ilgili tarafsız bir tahmin elde edebilirsiniz.
david25272

Yanıtlar:


51

Matris notasyonunda türetme

başlamak üzere , gerçekten aynı olany=Xb+ϵ

[y1y2yN]=[x11x12x1Kx21x22x2KxN1xN2xNK][b1b2bK]+[ϵ1ϵ2ϵN]

her şey küçültmek için geliyor :ee

ϵϵ=[e1e2eN][e1e2eN]=i=1Nei2

Böylece küçültmek bize şunları veriyor:ee

minb ee=(yXb)(yXb)

, e ' e = y ' y - 2 b ' x ' , y + b ' x ' x bminb ee=yy2bXy+bXXb

(ee)b=2Xy+2XXb=!0

XXb=Xy

b=(XX)1Xy

Son bir matematiksel şey, en azından ikinci dereceden koşul, X'X matrisinin XXpozitif kesin olmasını gerektirir . Bu gereklilik X durumunda karşılanırX tam derecesinde .

Daha büyük borçlardaki tüm adımları izleyen daha doğru türetme http://economictheoryblog.com/2015/02/19/ols_estimator/ adresinde bulunabilir.


3
Bu türetme tam olarak benim aradığım şeydi. HAYVAN YOK ADIMLARI. Aynı bulmanın ne kadar zor olduğunu şaşırtıcı.
javadba

1
Matris denkleminde ikincisi bir *olmamalı +mı? Ayrıca, boyutların eşleşmesi için yerine mı? bKbN
Alexis Olson

Alexis Olson, haklısın! Cevabımı düzenledim.
Andreas Dibiasi

13

Diğerlerini tahmin etmeksizin çoklu regresyonda sadece bir katsayı tahmin etmek mümkündür.

Tahmini etkisini ortadan kaldırarak elde edilir diğer değişkenlerden daha sonra artıklarını gerileme artıkları karşı . Bu açıklanır ve gösterilmektedir Biri diğer değişkenler için tam olarak nasıl kontrol eder? ve (a) regresyon katsayısı nasıl normalleştirilir?β1x2yx1. Bu yaklaşımın güzelliği, herhangi bir hesap gerektirmemesi, doğrusal cebir olmaması, sadece iki boyutlu geometri kullanılarak görselleştirilebilmesi, sayısal olarak stabil olması ve çoklu regresyonun sadece bir temel fikrinden faydalanması: almak (veya "kontrol etmek"). Tek bir değişkenin etkileri.


Mevcut durumda , çoklu regresyon, üç normal regresyon basamağı kullanılarak yapılabilir:

  1. Regresse üzerinde (sabit terim olmadan!). Uygun olan . Tahmin: Bu nedenle artıklar Geometrik olarak, , üzerine çıkıntısının çıkarılmasından sonra geriye kalan şeydir .yx2y=αy,2x2+δ

    αy,2=iyix2iix2i2.
    δ=yαy,2x2.
    δyx2
  2. Regresse üzerinde (sabit bir dönem olmadan). Uygun . Tahmin:ArtıklarGeometrik olarak, , üzerine çıkıntısının çıkarılmasından sonra geriye .x1x2x1=α1,2x2+γ

    α1,2=ix1ix2iix2i2.
    γ=x1α1,2x2.
    γx1x2
  3. üzerinde değerine geri dönün (sabit bir terim olmadan). Tahmin,Uygunluk . Geometrik olarak, bileşenidir temsil eder ( ile içinde alınmıştır) temsil eder (yönü ile çıkarıldı).δγ

    β^1=iδiγiiγi2.
    δ=β^1γ+εβ^1δyx2γx1x2

tahmin edilmediğine dikkat edin . β2 Kolayca şimdiye kadar (tıpkı elde edilmiştir ne kurtarılabilir sıradan regresyon durumunda kolaylıkla eğri tahmini elde edilir ). iki değişkenli regresyon için artıklar olan ile ilgili veβ^0β^1εyx1x2 .

Sıradan regresyon ile paralel kuvvetli: adımlar (1) ve (2), normal formülde araçları çıkarma analogudur. İzin verirsenx2 bir vektör verirseniz, aslında normal formülü kurtaracaksınız.

: İkiden fazla değişkenlerle regresyon açıkça şekilde bu genelleştirir tahmin etmek , geri kalış ve sonra birbirlerine karşı artıklarını gerileme, diğer tüm değişkenler karşı ayrı ayrı. Bu noktada , çoklu regresyonundaki diğer katsayıların hiçbiri henüz tahmin edilmemiştir.β^1yx1y


1
Büyük cevap, işte genel bir teorem en.wikipedia.org/wiki/…
JohnK

4

Sıradan en küçük kareler tahmini cevap değişkeninin doğrusal bir fonksiyonudurβ . Basitçe, en küçük kareler, katsayıların tahmin 'nin, sadece bağımlı değişken kullanılarak yazılabilir ( Y i ' ler) ve bağımsız değişkenler ( X k i 'ler).βYiXki

Genel bir regresyon modeli için bu gerçeği açıklamak için biraz doğrusal bir cebir anlamanız gerekir. Eğer katsayıları tahmin etmek istiyorum varsayalım bir çoklu regresyon modelinde,(β0,β1,...,βk)

Yi=β0+β1X1i+...+βkXki+ϵi

burada için i = 1 , . . . , n . Tasarım matris X, a, n, x k matris, her sütun içerir burada n, gözlemlerini k t h bağımlı değişken X- k . Birçok açıklamalar ve türevlerini bulabilirsiniz Burada formül tahmini katsayıları hesaplamak için kullanılan β =ϵiiidN(0,σ2)i=1,...,nXn×knkthXk , olanβ^=(β^0,β^1,...,β^k)

β^=(XX)1XY

ters varsayarak bulunmaktadır. Tahmini katsayılar, diğer tahmini katsayıların değil, verilerin işlevleridir.(XX)1


Basit regresyon durumda, yapmak söz kadar takip bilgisi daha sonra X bir matris haline ( 1 , . . . , 1 ) ve ( x 1 - ˉ x , . . . , x , n - ˉ x )yi=β0+β1x¯+β1(xix¯)+eiX(1,...,1)(x1x¯,...,xnx¯)Ardından üzerinden takip p = ( X ' X ) ( - 1 ) x ' Y . Davamda denklemi nasıl yeniden yazmalıyım? β^=(XX)(1)XY
Sabre CN

Ve 1 soru daha, bu, ve x 2'nin doğrusal olmadığı, modelin hala doğrusal olduğu durumlar için geçerli midir? Örneğin, çürüme eğrisi y = β 1 e x 1 t + β 2 e x 2 t , üsteli x 1 ve x 2 ile değiştirebilir miyim, böylece orijinal sorum olur mu? x1x2y=β1ex1t+β2ex2tx1x2
Sabre CN

İlk yorumunuzda değişkeni ortalayabilirsiniz (bunun ortalamasını çıkarın) ve bunu bağımsız değişkeniniz olarak kullanabilirsiniz. "Standartlaştırılmış regresyon" için arama yapın. Matris cinsinden yazdığınız formül doğru değil. İkinci sorunuz için, evet, bunu yapabilirsiniz, lineer bir model içinde lineerdir , bu yüzden y , β 'nin lineer birleşimine eşit olduğu sürece iyisiniz . βyβ
caburke

2
(1). Ama k × n yerine " matrisi" olmamalı mı? n×kk×n
miura

3

Teoriye ve pratiğe ilişkin küçük bir küçük not. Matematiksel olarak aşağıdaki formülle hesaplanabilir:β0,β1,β2...βn

β^=(XX)1XY

nerede orijinal giriş veri ve Y biz tahmin etmek istedikleri değişkendir. Bu, hatayı minimize etmekten kaynaklanır. Küçük bir pratik noktaya değinmeden önce bunu ispatlayacağım.XY

Let lineer regresyon noktasında yapar hata olabilir i . Sonra:eii

ei=yiyi^

Şimdi yaptığımız toplam kare hatası:

i=1nei2=i=1n(yiyi^)2

Doğrusal bir modele sahip olduğumuz için şunu biliyoruz:

yi^=β0+β1x1,i+β2x2,i+...+βnxn,i

Matris notasyonunda şöyle yazılabilir:

Y^=Xβ

Biz biliyoruz ki

i=1nei2=EE

Aşağıdaki ifadenin olabildiğince küçük olması için toplam kare hatasını minimize etmek istiyoruz.

EE=(YY^)(YY^)

Bu eşittir:

EE=(YXβ)(YXβ)

The rewriting might seem confusing but it follows from linear algebra. Notice that the matrices behave similar to variables when we are multiplying them in some regards.

We want to find the values of β such that this expression is as small as possible. We will need to differentiate and set the derivative equal to zero. We use the chain rule here.

dEEdβ=2XY+2XXβ=0

This gives:

XXβ=XY

Such that finally:

β=(XX)1XY

So mathematically we seem to have found a solution. There is one problem though, and that is that (XX)1 is very hard to calculate if the matrix X is very very large. This might give numerical accuracy issues. Another way to find the optimal values for β in this situation is to use a gradient descent type of method. The function that we want to optimize is unbounded and convex so we would also use a gradient method in practice if need be.


except that you don't actually need to compute (XX)1...
user603

valid point. one could also use the gram schmidt process, but I just wanted to remark that finding the optimal values for the β vector can also be done numerically because of the convexity.
Vincent Warmerdam

2

A simple derivation can be done just by using the geometric interpretation of LR.

Linear regression can be interpreted as the projection of Y onto the column space X. Thus, the error, ϵ^ is orthogonal to the column space of X.

Therefore, the inner product between X and the error must be 0, i.e.,

<X,yXβ^>=0

XyXXβ^=0

Xy=XXβ^

Which implies that,

(XX)1Xy=β^.

Now the same can be done by:

(1) Projecting Y onto X2 (error δ=YX2D^), D^=(X2X2)1X2y,

(2) Projecting X1 onto X2 (error γ=X1X2G^), G^=(X1X1)1X1X2,

and finally,

(3) Projecting δ onto γ, β^1

enter image description here

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.