İşte aslında daha genel ortamlara uygulamaları olan ve yararlı bulduğum regresyondaki karelerin toplamını en aza indirmek için bir teknik.
Vektör matris hesabından tamamen kaçınmaya çalışalım.
Diyelim ki
burada , ve . Sadelik için ve olduğunu varsayıyoruz .
E=(y−Xβ)T(y−Xβ)=∥y−Xβ∥22,
y∈RnX∈Rn×pβ∈Rpp≤nrank(X)=p
Herhangi bir için
β^∈Rp
E=∥y−Xβ^+Xβ^−Xβ∥22=∥y−Xβ^∥22+∥X(β−β^)∥22−2(β−β^)TXT(y−Xβ^).
Biz Eğer seçim (bulun!) Bir vektör sağ taraftaki son dönem için sıfır olacak şekilde her o ima olacağından, o zaman biz, bitmiş olacaktır .β^ βminβE≥∥y−Xβ^∥22
Ancak, tüm için ve yalnızca ve bu son denklem yalnızca ise doğrudur . Böylece alınarak simge küçültülür .(β−β^)TXT(y−Xβ^)=0βXT(y−Xβ^)=0XTXβ^=XTyEβ^=(XTX)−1XTy
Bu, hesabı önlemek için bir "hile" gibi görünse de, aslında daha geniş bir uygulamaya sahiptir ve oyunda bazı ilginç geometriler vardır.
Bu tekniğin bir türevi herhangi bir matris-vektör hesabı yaklaşımından çok daha basitleştirdiği bir örnek , matris durumunu genelleştirdiğimiz zamandır. Let , ve . parametrelerini
tüm matris üzerinde en aza indirmek istediğimizi varsayalım
. Burada bir kovaryans matrisidir.Y∈Rn×pX∈Rn×qB∈Rq×p
E=tr((Y−XB)Σ−1(Y−XB)T)
BΣ
Yukarıdakilere tamamen benzer bir yaklaşım, alarak minimum ulaşıldığını
hızlı bir şekilde belirler
Yani, yanıtın kovaryans ile bir vektör olduğu ve gözlemlerin bağımsız olduğu bir regresyon ortamında, yanıtın bileşenleri üzerinde ayrı lineer regresyonlar yapılarak OLS tahmini elde edilir .E
B^=(XTX)−1XTY.
Σp
smallmatrix, bu yüzden düzenlemeye çalışmadı, çünkü birkaç satırda formülü kırmanın olağan çözümü burada işe yaramazdı.