Bir veri matrisi için sezgisel bir yorumu var mı ?


107

Verilen bir veri matrisi (sütunlardaki değişkenler ve satırlardaki veri noktaları ile), istatistiklerde önemli bir rol oynar gibi görünmektedir . Örneğin, sıradan en küçük karelerin analitik çözümünün önemli bir parçasıdır. Veya, PCA için özvektörleri, verilerin temel bileşenleridir.A , T birAATA

nasıl hesaplanacağını anlıyorum , ancak bu matrisin neyi temsil ettiğinin sezgisel bir yorumunun olup olmadığını merak ediyorum, bu da önemli rolüne neden olur mu?ATA


2
Bazı sezgiler istatistik.stackexchange.com/a/66295/919 adresindeki analizden kaynaklanıyor olabilir .
whuber

Yanıtlar:


125

Geometrik olarak, matriks skaler ürünlerin matrisi olarak adlandırılır (= nokta ürünler, = iç ürünler). Cebirsel olarak, kareler toplamı ve ürünler arası matris ( SSCP ) olarak adlandırılır.AA

Onun diagonal elemanı, değerine eşittir , burada , nın -th sütunundaki değerleri belirtir ve , satırlar arasındaki toplamdır. Buradaki -diagonal eleman dır .a 2 ( i ) a ( i ) i A i j a ( i ) a ( j )ia(i)2a(i)iAija(i)a(j)

Çok sayıda önemli ilişkilendirme katsayısı vardır ve bunların kare matrislerine açısal benzerlikler veya SSCP tipi benzerlikler denir:

  • SSCP matrisini bölerek , örnek boyutu veya satır sayısını, MSCP (ortalama kare ve çapraz ürün) matrisi elde edersiniz . Bu ilişkilendirme ölçümünün çiftli formülü bu yüzden ( ve vektörleri , dan bir çift sütun şeklindedir ).A x ynA xyAxynxyA

  • Eğer varsa merkezi sütun (değişkenler) , daha sonra olan dağılım (güç olması durumunda, ya da ko-dağılım) matrisi ve olduğu kovaryans matris. kovaryans formülü, ve ile sütunları gösterir.A A A A / ( n - 1 ) c x c yAAAAA/(n1) cxcycxcyn1cxcy

  • Eğer sütunlarını z standartlaştırırsanız (sütun ortalamasını çıkarın ve standart sapmaya bölün), o zaman Pearson korelasyon matrisidir: korelasyon, standart değişkenler için kovaryanstır. korelasyon formülü, standartlaştırılmış sütunları ifade eden ve ile . Korelasyon ayrıca doğrusallık katsayısı olarak da adlandırılır.Az x z yAA/(n1) zxzyzxzyn1zxzy

  • Eğer birim-Eğer ölçekli sütunları (kendi SS-toplamı küçük kareler 1'e getirmek), daha sonra olan kosinüs benzerlik matrisi. Eşdeğer ikili formül böylece gibi görünmektedir ile ve L2 normalleştirilmiş sütun belirten . Kosinüs benzerliğine ayrıca orantılılık katsayısı da denir.Au x u y = x yAA uxuyuxuy=xyx2y2uxuy

  • Eğer varsa merkezi ve birim- ölçekli sütunları , daha sonra tekrar Pearson olan korelasyon korelasyon merkezli değişkenler için kosinüs, çünkü matris :A A 1 , 2AAA1,2cuxcuy=cxcycx2cy2

Bu dört ana dernek önleminin yanı sıra, aynı zamanda dayanan diğerlerinden de . Formülde payda olan normalizasyondan farklı kabul ettikleri için kosinüs benzerliğine alternatif önlemler olarak görülebilirler:AA

  • Kimlik katsayısı [Zegers ve on Berge, 1985], paydasını geometrik ortalamadan ziyade aritmetik ortalama şeklindedir: . Yalnızca sütunlarının karşılaştırılması aynıysa, 1 olabilir. Axy(x2+y2)/2A

  • Buna benzer başka bir kullanılabilir katsayıya benzerlik oranı denir : .xyx2+y2xy=xyxy+(xy)2

  • Son olarak, eğer değerler negatif değilse ve sütunlar içindeki toplamları 1 (örn. Oranlar) ise, , aslına uygunluk veya Bhattacharyya katsayısı matrisidir .AAA


A A s A n C = A A - s s / n C / ( n - 1 )1 , aynı zamanda bir şekilde veri merkezleme atlar ve doğrudan SSCP matris yola, çok sayıda istatistik paketleri tarafından kullanılan ilişki ya da kovaryans matrisinin hesaplamak için bu şekilde. Let veri sütun toplamlarının satır vektörü ise veri satır sayısıdır. Daha sonra (1) dağılım matrisini [dolayısıyla, kovaryans matrisi] olacak şekilde hesaplayın; (2) köşegeni, kare sapmaların, satır vektörü ; (3) korelasyon matrisini hesaplamak .AAsAnC=AAss/nC/(n1)d R = Cı- / CdR=C/dd

n2 Akut fakat istatistiksel olarak acemi bir okuyucu, korelasyonun iki tanımını uzlaştırmayı zor bulabilir - "kovaryans" (bu, örnek büyüklüğüne göre ortalama alma, df = "n-1" ile bölünme ) ve "kosinüs" olarak ifade edilir ( böyle bir ortalama yok). Fakat aslında ilk korelasyon formülünde gerçek ortalama yoktur. Sorun şu ki st. z standardizasyonunun sağlandığı sapma, aynı df tarafından bölünme ile hesaplandı ; ve bu nedenle, kovaryans olarak korelasyon formundaki "n-1" paydası, formülü çözerseniz tamamen iptal olur: formül, kosinüs formülüne dönüşür . Gerçekten ihtiyacınız ampirik korelasyon değerini hesaplamak için değil bilmekn (Ortalamayı hesaplarken hariç).


42

Matris tüm sütun tüm iç ürünleri içeren . Böylece diyagonal sütunların kare normlarını içerir. sütunların kapsadığı sütun alanı üzerine geometri ve ortogonal projeksiyonları düşünürseniz , bu alanı kapsayan vektörlerin normlarının ve iç ürünlerinin projeksiyonun hesaplanmasında merkezi bir rol oynadığını hatırlayabilirsiniz. En küçük kareler regresyonu ve ana bileşenler ortogonal çıkıntılar açısından anlaşılabilir.A birATAAA

Ayrıca, eğer sütunları ortonormal ise, dolayısıyla sütun alanı için ortonormal bir temel oluşturuyorsa, o zaman özdeşlik matrisi.A T A = I -AATA=I


39

@NRH iyi bir teknik cevap verdi.

Eğer gerçekten temel bir şey istiyorsan, aklınıza gelebilecek matris eşdeğeri olarak bir sayısal alan için.ATAA2


5
Diğer cevaplar “teknik olarak” doğru olsa da, bu en sezgisel cevaptır.
CatsLoveJazz

3

geometrisinin önemli bir görüntüsü şudur (Strang'ın "Doğrusal Cebir ve Uygulamaları" kitabında kuvvetle vurgulanan bakış açısı): A'nın, lineer bir haritayı temsil eden bir K derece olduğunu varsayalım . Sütun (A) ve Sıra (A) kolon ve sıra boşluklar olsun . SonraAAm×nA:RnRmA

(a) Gerçek bir simetrik matris olarak, , sıfır olmayan özdeğerleri özdeğerlerinin bir tabanına sahiptir . Böylece:(AA):RnRn{e1,...,en}d1,,dk

(AA)(x1e1++xnen)=d1x1e1+...+dkxkek .

(b) Aralık (A) = Sütun (A), Sütun (A) tanımına göre. Yani A | Row (A), Row (A) 'yı Col (A)' ya eşler.

(c) Çekirdek (A), Row (A) 'nın ortogonal tamamlayıcısıdır. Bunun nedeni, matris çarpımının nokta ürünler (satır i) * (sütun j) cinsinden tanımlanmasıdır. (ÖyleyseAv=0v is in Kernel(A)vis in orthogonal complement of Row(A)

(d) ve bir izomorfizmdir .A(Rn)=A(Row(A))A|Row(A):Row(A)Col(A)

Reason: If v = r+k (r \in Row(A), k \in Kernel(A),from (c)) then
A(v) = A(r) + 0 = A(r) where A(r) = 0 <==> r = 0$.

[Bu arada, Sıra rütbesi = Sütun rütbesi olduğuna dair bir kanıt sunar!]

(e) (d), bir izomorfizmdirA|:Col(A)=Row(A)Col(A')=Row(A)

(f) (d) ve (e) ile: ve A'A, Satır (A) 'ı Satır (A)' ya izomorfik olarak eşler.AA(Rn)=Row(A)


2
almak için bir formülü $ ve $ olarak ekleyebilirsiniz . LATEX
Placidia

2

'nın nokta ürünleri almak anlamına geldiği daha önce tartışılsa da , bu çarpımın sadece grafiksel bir gösterimini ekleyeceğim.ATA

Aslında, (ve matris ) matrisinin satırları değişkenleri temsil ederken, her değişken ölçümünü çok boyutlu bir vektör olarak ele alırız. Satır çarpımı arasında kolonu arasında : iki vektörün nokta ürün alarak eşdeğerdir - konumunda kayıt olmak sonucu matrisinin içinde .ATArowpATcolpAdot(rowp,colp)(p,p)ATA

Benzer bir şekilde, sıra çarparak ait kolonu arasında nokta ürünün eşdeğerdir: konumunda sonucu ile, .pATkAdot(rowp,colk)(p,k)

Giriş elde edilen matris vektör ne kadar bir anlama sahiptir vektör yönünde olan . İki vektör, bir nokta ürün halinde ve sıfırdan farklı olduğu, bir bilgi için bir vektör ile ilgili olan taşınan bir vektör ile tersi ve.(p,k)ATArowpcolkrowicoljrowicolj

Bu fikir bizim ilk veri matrisi yeni bir temsilini bulmak istiyoruz Ana Bileşen Analizi, önemli bir rol oynamaktadır , her kolon etrafına taşınan fazla bilgi vardır, öyle ki başka bir kolon içinde . PCA'nın daha derinlemesine incelendiğinde, kovaryans matrisinin "yeni bir sürümünün" hesaplandığını göreceksiniz ve bunun farkına varmak için size bıraktığım köşegen bir matris haline geldiğini göreceksiniz.Aiji

görüntü tanımını buraya girin


1

Sezgi düzeyleri vardır. Matris notasyonu belirsizliğine aşina olanlar için sezgi, onu rastgele değişkenin karesi olarak düşünmektir: vsxE[x2]AATA

Matris notasyonunda rastgele değişken bir örnek gözlem veya nüfusu bir sütun vektörü ile temsil edilmektedir:xxi

a=[x1x2xn]

Bu nedenle, değişkeninin karesi için örnek bir ortalama elde etmek istiyorsanız , basit bir nokta çarpımına alırsınız: , matris notasyonu ile aynı .x

x2¯=aan
ATA

Değişkenin örnek ortalamasının SIFIR olması durumunda, varyansın karenin ortalamasına eşit olduğuna dikkat edin: , benzer . Bu, PCA’da sıfır ortama ihtiyaç duymanızın nedenini ve neden tüm PCA’nın veri setinin varyans matrisini ayrıştırmasından sonra ortaya çıktığını gösterir.σ2=E[x2]ATAATA

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.