Hat matrisinin top'un lineer regresyondaki önemi nedir ?


10

Regresyon analizinde şapka matrisinin önemi nedir ?H=X(XX)1X

Sadece daha kolay hesaplama için mi?


Ayrıca, lütfen daha spesifik olabilir misiniz?
Steve S

@SteveS Aslında neden şapka matrisine ihtiyacımız olduğunu bilmek istiyorum?
user 31466

Matris için neden özel bir isim / simgeye (yani "hat matrisi", " H ") ihtiyacımız olduğunu mu soruyorsunuz, yoksa sağ taraftaki matris ürününün önemi hakkında daha fazla soru mu soruyorsunuz?
Steve S

Yanıtlar:


14

Doğrusal regresyon çalışmasında temel başlangıç ​​noktası, olan veri üretme işlemidir ; burada ve belirleyici. En küçük kareler ölçütünü en aza sonra, için bir , yani . İlk formülde tahmin ediciyi ekledikten sonra , veri oluşturma işleminin doğrusal bir modeli olarak edilir. Şimdi, tahmin ediciyiy= XB + uuN(0,σ2I)XB^BB^=(XX)1Xyy^=XB^B^vey^=X(XX)1Xy.

Yani, aslında bir projeksiyon matrisidir. içindeki tüm değişkenleri aldığınızı düşünün . Değişkenler vektörlerdir ve bir boşluğa yayılır. Bu nedenle, çok-katlı durumunda tarafından , daki gözlenen değerler çıkıntı değişkenler tarafından yayılmış olan alan üzerine . için tahminler verir ve buna neden şapka matrisi olarak adlandırılır ve neden böyle bir önemi vardır. Sonuçta, doğrusal regresyon bir projeksiyondan başka bir şey değildir ve projeksiyon matrisi ile sadece tahminlerini hesaplayamayızH=X(XX)1XXHyyXyyaynı zamanda için de kullanılabilir ve örneğin normalde dağıtılmış olup olmadığını kontrol edebilir.u

İnternette bu güzel resmi buldum ve bu projeksiyonu görselleştiriyor. Lütfen yerine kullanıldığını unutmayın . Dahası, resim hata terimlerinin vektörünün çıkıntıya dik olduğunu ve dolayısıyla tahminleriyle ilişkili olmadığını vurgulamaktadır.βBy

resim açıklamasını buraya girin


5

Şapka matrisi birkaç nedenden dolayı çok yararlıdır:

  1. Bunun yerine sahip , bunu elde şapka matrisidir. Bu bize nin gözlemlenen değerlerin doğrusal bir eşlemesi olduğunu verir.y^=Zβ^y^=PyPy^
  2. Hat matrisi , kalıntılarını hesaplamak kolaydır . Biz görüyoruz .Pϵ^ϵ^=yy^=yPy=(InP)y

0

Bu, b'nin A sütun sütununda olmadığı Ax = b için "en yakın" çözümü bulmaktan başka bir şey değildir, b'yi sütun boşluğuna yansıtıyoruz ve Ax (şapka) = p için çözüyoruz, burada p, b'nin projeksiyonudur sütun alanı.


1
Bütün bunlar hesaplanmadan yapılabilir . H
whuber
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.