Basit doğrusal regresyon durumunda , en küçük kareler tahmincisini türetebilirsiniz , değerini tahmin için bilmek zorundaβ 0 β 1
olduğunu varsayalım , tahmin etmeden nasıl ? veya bu mümkün değil mi?β 1 β 2
Basit doğrusal regresyon durumunda , en küçük kareler tahmincisini türetebilirsiniz , değerini tahmin için bilmek zorundaβ 0 β 1
olduğunu varsayalım , tahmin etmeden nasıl ? veya bu mümkün değil mi?β 1 β 2
Yanıtlar:
Matris notasyonunda türetme
başlamak üzere , gerçekten aynı olan
her şey küçültmek için geliyor :
Böylece küçültmek bize şunları veriyor:
, e ' e = y ' y - 2 b ' x ' , y + b ' x ' x b
Son bir matematiksel şey, en azından ikinci dereceden koşul, X'X matrisinin pozitif kesin olmasını gerektirir . Bu gereklilik X durumunda karşılanır tam derecesinde .
Daha büyük borçlardaki tüm adımları izleyen daha doğru türetme http://economictheoryblog.com/2015/02/19/ols_estimator/ adresinde bulunabilir.
*
olmamalı +
mı? Ayrıca, boyutların eşleşmesi için yerine mı?
Diğerlerini tahmin etmeksizin çoklu regresyonda sadece bir katsayı tahmin etmek mümkündür.
Tahmini etkisini ortadan kaldırarak elde edilir diğer değişkenlerden daha sonra artıklarını gerileme artıkları karşı . Bu açıklanır ve gösterilmektedir Biri diğer değişkenler için tam olarak nasıl kontrol eder? ve (a) regresyon katsayısı nasıl normalleştirilir?. Bu yaklaşımın güzelliği, herhangi bir hesap gerektirmemesi, doğrusal cebir olmaması, sadece iki boyutlu geometri kullanılarak görselleştirilebilmesi, sayısal olarak stabil olması ve çoklu regresyonun sadece bir temel fikrinden faydalanması: almak (veya "kontrol etmek"). Tek bir değişkenin etkileri.
Mevcut durumda , çoklu regresyon, üç normal regresyon basamağı kullanılarak yapılabilir:
Regresse üzerinde (sabit terim olmadan!). Uygun olan . Tahmin: Bu nedenle artıklar Geometrik olarak, , üzerine çıkıntısının çıkarılmasından sonra geriye kalan şeydir .
Regresse üzerinde (sabit bir dönem olmadan). Uygun . Tahmin:ArtıklarGeometrik olarak, , üzerine çıkıntısının çıkarılmasından sonra geriye .
üzerinde değerine geri dönün (sabit bir terim olmadan). Tahmin,Uygunluk . Geometrik olarak, bileşenidir temsil eder ( ile içinde alınmıştır) temsil eder (yönü ile çıkarıldı).
tahmin edilmediğine dikkat edin . Kolayca şimdiye kadar (tıpkı elde edilmiştir ne kurtarılabilir sıradan regresyon durumunda kolaylıkla eğri tahmini elde edilir ). iki değişkenli regresyon için artıklar olan ile ilgili ve .
Sıradan regresyon ile paralel kuvvetli: adımlar (1) ve (2), normal formülde araçları çıkarma analogudur. İzin verirsen bir vektör verirseniz, aslında normal formülü kurtaracaksınız.
: İkiden fazla değişkenlerle regresyon açıkça şekilde bu genelleştirir tahmin etmek , geri kalış ve sonra birbirlerine karşı artıklarını gerileme, diğer tüm değişkenler karşı ayrı ayrı. Bu noktada , çoklu regresyonundaki diğer katsayıların hiçbiri henüz tahmin edilmemiştir.
Sıradan en küçük kareler tahmini cevap değişkeninin doğrusal bir fonksiyonudur . Basitçe, en küçük kareler, katsayıların tahmin 'nin, sadece bağımlı değişken kullanılarak yazılabilir ( Y i ' ler) ve bağımsız değişkenler ( X k i 'ler).
Genel bir regresyon modeli için bu gerçeği açıklamak için biraz doğrusal bir cebir anlamanız gerekir. Eğer katsayıları tahmin etmek istiyorum varsayalım bir çoklu regresyon modelinde,
burada için i = 1 , . . . , n . Tasarım matris X, a, n, x k matris, her sütun içerir burada n, gözlemlerini k t h bağımlı değişken X- k . Birçok açıklamalar ve türevlerini bulabilirsiniz Burada formül tahmini katsayıları hesaplamak için kullanılan β = , olan
ters varsayarak bulunmaktadır. Tahmini katsayılar, diğer tahmini katsayıların değil, verilerin işlevleridir.
Teoriye ve pratiğe ilişkin küçük bir küçük not. Matematiksel olarak aşağıdaki formülle hesaplanabilir:
nerede orijinal giriş veri ve Y biz tahmin etmek istedikleri değişkendir. Bu, hatayı minimize etmekten kaynaklanır. Küçük bir pratik noktaya değinmeden önce bunu ispatlayacağım.
Let lineer regresyon noktasında yapar hata olabilir i . Sonra:
Şimdi yaptığımız toplam kare hatası:
Doğrusal bir modele sahip olduğumuz için şunu biliyoruz:
Matris notasyonunda şöyle yazılabilir:
Biz biliyoruz ki
Aşağıdaki ifadenin olabildiğince küçük olması için toplam kare hatasını minimize etmek istiyoruz.
Bu eşittir:
The rewriting might seem confusing but it follows from linear algebra. Notice that the matrices behave similar to variables when we are multiplying them in some regards.
We want to find the values of such that this expression is as small as possible. We will need to differentiate and set the derivative equal to zero. We use the chain rule here.
This gives:
Such that finally:
So mathematically we seem to have found a solution. There is one problem though, and that is that is very hard to calculate if the matrix is very very large. This might give numerical accuracy issues. Another way to find the optimal values for in this situation is to use a gradient descent type of method. The function that we want to optimize is unbounded and convex so we would also use a gradient method in practice if need be.
A simple derivation can be done just by using the geometric interpretation of LR.
Linear regression can be interpreted as the projection of onto the column space . Thus, the error, is orthogonal to the column space of .
Therefore, the inner product between and the error must be 0, i.e.,
Which implies that,
.
Now the same can be done by:
(1) Projecting onto (error ), ,
(2) Projecting onto (error ), ,
and finally,
(3) Projecting onto ,