Faktör Analizi, PCA varyansını açıklarken kovaryansı nasıl açıklar?


37

Piskopos'un "Örüntü Tanıma ve Makine Öğrenmesi" kitabından alıntı, bölüm 12.2.4 "Faktör analizi":

görüntü tanımını buraya girin

Vurgulanan kısma göre, faktör analizi W matrisindeki değişkenler arasındaki kovaryansı yakalarW . NASIL merak ediyorum ?

İşte nasıl anladım. Ki x görülmektedir p , boyutlu değişken W faktörü yükleme matrisidir ve z faktör skoru vektörüdür. Sonra değerine sahibiz ,

x=μ+Wz+ϵ,
yani
(x1xp)=(μ1μp)+(||w1wm||)(z1zm)+ϵ,
ve her bir sütun,Wbir etken yükleme vektörüdür
wi=(wi1wip).
Yazdığım Burada olduğu gibi,Wsahiptirmvardır anlamı sütunlarımfaktörleri göz altında.

Şimdi burada noktası vurgulanan kısmına göre ise, ben her sütunda loadings düşünmek wi gözlenen verilerde kovaryansını açıklamak doğru?

Örneğin, birinci yükleme vektörü bir göz izin için, 1 i , j , k p ise, ağırlık 1 i = 10 , ağırlık 1 j = 11 ve ağırlık 1 k = 0.1 , o zaman say x i ve x j yüksek korelasyonluyken, x k onlarla ilişkisiz görünüyor , değil mi?w11i,j,kpw1i=10w1j=11w1k=0.1xixjxk

Ve eğer faktör analizi, gözlenen özellikler arasındaki kovaryansı nasıl açıklarsa, PCA'nın kovaryansı da açıkladığını söyleyebilirim, değil mi?


1
@ Ttnphns'ın konusu konu alanı temsiline atıfta bulunduğundan , burada değişken alan ve konu alanı hakkında bir ders var: BTW, daha önce konu alanı konusu hakkında bir şey bilmiyordum , şimdi anlıyorum ve bu konu hakkında bir ders var: amstat.org/ yayınlar / jse / v10n1 / yu / biplot.html . ;-)
avokado

1
Ben de yükleri gösteren yükleme arsasının aslında konu alanı olduğunu hatırlatırım . Hem değişken hem de konu alanlarının birinde gösterilmesi çift yönlüdür. Bunu gösteren bazı resimler istatistik.stackexchange.com/a/50610/3277 .
ttnphns

Terminolojik olarak "ortak varyans" ve "paylaşılan varyans" nedir hakkında bir soru: stats.stackexchange.com/q/208175/3277 .
ttnphns

Yanıtlar:


45

Arasındaki fark temel bileşenler analiz ve faktör analizi çok sayıda ders kitabı ve çok değişkenli tekniklerle ilgili makalelerinde açıklanmıştır. Bu sitede de tam diziyi ve daha yeni olanı ve tek cevapları bulabilirsiniz.

Detaylı hale getirmeyeceğim. Zaten verdik öz cevap ve bir daha uzun bir ve resimlerin bir çift ile olayı aydınlatmak için şimdi istiyoruz.

Grafik gösterimi

Aşağıdaki resim PCA'yı açıklamaktadır . ( PCA'nın Doğrusal regresyon ve Kanonik korelasyonlarla karşılaştırıldığı buradan ödünç alınmıştır . Resim, konu alanındaki değişkenlerin vektör temsilidir ; buradaki 2. paragrafı okumak isteyebileceğinizin ne olduğunu anlamak için.)

görüntü tanımını buraya girin

P1P2 X1X2X1X2cov12=|X1||X2|rr vektörleri arasındaki açının kosinüsüne eşittir.

a

P1P2a112+a212=|P1|2P1


X1X2

FP1

P1

görüntü tanımını buraya girin

F

P1F

aa12+a22=|F|2F

FFX1FX2X1FU1X2FU2U1U2FUU1X1U2X2X1X2FX1X2cov12>0cov12a

u2 a2F-boyutlar, topluluklar değişkenler 'mekân üzerine öngörüler ve yükler değişkenler' ve bu projeksiyonlar da mekanı kapsayan faktörler üzerindeki projeksiyonlardır. Faktör analizinde açıklanan varyans, bileşenlerin varyansı açıkladığı değişkenlerin alanından farklı olan ortak faktörlerin alanı içindeki varyanstır. Değişkenlerin alanı, birleştirilmiş alanın göbeğindedir: m ortak + p benzersiz faktörler.

görüntü tanımını buraya girin

X1X2X3F1F2X1C1U1X1X1X2X31

cov12a1a2yükler aracılığıyla bireysel kovaryanslar. PCA modelinde, PCA'nın tanımlanmamış, karışık collinear + orgonal doğal varyansı açıkladığı için öyle değil. Hem tuttuğunuz hem de bıraktığınız güçlü bileşenler, (A) ve (B) parçalarının birleşmesidir; bu nedenle PCA, yükleriyle kovaryansları yalnızca kör ve kaba bir şekilde dokunabilir.


Kontrast listesi PCA vs FA

  • PCA: değişkenlerin alanında çalışır. FA: değişkenlerin alanını uzatır.
  • PCA: olduğu gibi değişkenlik alır. FA: Değişkenliği ortak ve benzersiz parçalara böler.
  • PCA: Düzenlenmemiş varyansı, yani kovaryans matrisinin izini açıklar. FA: sadece ortak varyansı açıklar, dolayısıyla (yüklerle geri yükler) korelasyonları / kovaryansları, matrisin diyagonal olmayan elemanlarını açıklar . (PCA, köşegen dışı unsurları da açıklar - fakat geçerken, hazırlıksız olarak - sadece varyanslar bir kovaryans biçiminde paylaşıldığı için.)
  • PCA: Bileşenler değişkenlerin teorik olarak doğrusal fonksiyonları, değişkenler teorik olarak bileşenlerin doğrusal fonksiyonlarıdır. FA: değişkenler teorik olarak sadece faktörlerin doğrusal fonksiyonlarıdır.
  • PCA: ampirik özetleme yöntemi; Bu muhafaza m bileşenleri. FA: teorik modelleme yöntemi; Bu uyan sabit sayıda m verilerine faktörleri; FA test edilebilir (Onaylayıcı FA).
  • PCA: en basit metrik MDS'dir , boyutsallığı azaltmayı ve veri noktaları arasındaki mesafeleri dolaylı olarak mümkün olduğunca korumayı amaçlar. FA: Faktörler, ilişkilendirmelerini sağlayan değişkenlerin arkasındaki temel gizli özelliklerdir; Analiz, verileri yalnızca bu özlere indirmeyi amaçlamaktadır.
  • PCA: bileşenlerin dönmesi / yorumlanması - bazen (PCA gizli özellikler modeli kadar gerçekçi değildir). FA: Dönme / faktörlerin yorumlanması - rutin olarak.
  • PCA: yalnızca veri azaltma yöntemi. FA: ayrıca tutarlı değişken kümelerini bulmak için bir yöntem (bunun nedeni değişkenlerin bir faktörün ötesinde korelasyon gösterememesidir).
  • PCA: Yüklemeler ve puanlar "çıkarılan" bileşenlerin m sayısından bağımsızdır . FA: yükler ve puanlar "çıkarılan" faktörlerin m sayısına bağlıdır .
  • PCA: bileşen puanları kesin bileşen değerleridir. FA: faktör puanları gerçek faktör değerlerine yakındır ve çeşitli hesaplama yöntemleri vardır. Faktör puanları değişkenler alanında (bileşenler gibi) ya da gerçek faktörler (faktör yükleri tarafından yapılandırıldığı gibi) bulunmaz.
  • PCA: genellikle varsayım yok. FA: zayıf kısmi korelasyonların varsayımı ; bazen çok değişkenli normallik varsayımı; Bazı veri setleri, dönüştürülmedikçe analiz için "kötü" olabilir.
  • PCA: isteğe bağlı olmayan algoritma; her zaman başarılı. FA: yinelemeli algoritma (tipik olarak); bazen yakınsaklık problemi; tekillik bir problem olabilir.

1 X2X3U1X1X1X2X3U1X1X2UU

Regresyonda olduğu gibi , katsayılar, kestiriciler üzerinde, bağımlı değişken (ler) in ve tahmin (ler) in koordinatörleridir ( FA'de "Çoklu Regresyon" altındaki resme bakınız ve burada da)Yüklemeler, hem gözlenen değişkenlerin hem de bunların gizli bölümlerinin faktörleri üzerindeki faktörlerdir - topluluklar. Ve tam olarak regresyonda olduğu gibi, bağımlı (ları) yapmadı ve öngörüler birbirlerinin alt uzaylarıydı, - FA'de de aynı durum gözlenen değişkenleri yapmaz ve gizli faktörler birbirinin alt uzayları olur. Bir faktör, bir yordayıcının bağımlı bir tepkiye "yabancı" olmasıyla oldukça değişken bir değişkene "yabancıdır". Fakat PCA'da, başka bir yol var: temel bileşenler, gözlenen değişkenlerden elde edilir ve alanlarıyla sınırlıdır.

Bu nedenle, bir kez daha tekrarlamak için: FA'nin ortak faktörleri, p giriş değişkenlerinin bir alt alanı değildir . Aksine: değişkenler, m + p ( m ortak faktörler + p benzersiz faktörler) birlik hiperuzerinde bir alt uzay oluşturur . Bu perspektiften bakıldığında (yani, kendine özgü faktörler de göz önüne alındığında) , klasik FA'nin klasik PCA gibi bir boyutsal büzülme tekniği olmadığı , ancak bir boyutsallık genişletme tekniği olduğu anlaşılmaktadır . Bununla birlikte, dikkatimizi sadece bu kabartmanın küçük ( m boyutlu ortak) kısmına veririz , çünkü bu kısım sadece korelasyonları açıklar.


Teşekkürler ve güzel arsa. Cevabınız ( stats.stackexchange.com/a/94104/30540 ) çok yardımcı olur.
avokado

2
(+11) Harika cevap ve güzel resimler! (Ödül teklif etmeden önce iki gün daha beklemem gerekiyor.)
chl

@chl, çok etkilendim.
ttnphns

@ ttnphns: "Konu alanı" (X düzleminiz), veri kümesinde veri noktaları olduğu kadar koordinat içeren bir alandır, değil mi? Yani bir veri kümesi (iki değişkenli X1 ve X2 ile) 100 veri noktasına sahipse, o zaman X düzleminiz 100 boyutlu olur? Peki F faktörü bunun dışında nasıl olabilir? 100 veri noktasının hepsinde faktör boyunca bazı değerler bulunmuyor mu? Ve başka veri noktası olmadığı için, F faktörünün aynı 100 boyutlu "özne alanında", yani X düzleminde yatması gerekecek gibi görünüyor. Neyi kaçırıyorum?
amip diyor Reinstate Monica

1
@ amoeba, sorunuz meşru ve evet, bir şey eksik. 1. paragrafa bakınız: stats.stackexchange.com/a/51471/3277 . Gereksiz boyutlar düşürülür. Konu alanı, karşılık gelen değişken alanın olduğu kadar gerçekte, kırmızı olmayan boyutlara sahiptir. Yani "boşluk X" düzlemdir. +1 boyutu eklersek (F'yi kapsar), tüm yapılandırma tekil, çözülemez olur. F her zaman değişken alanın dışına çıkar.
ttnphns

10

"Kovaryansı açıklamak" vs. varyansı açıklamak

Piskopos aslında çok basit bir şey demek. Faktör analizi modelinde (eşd. 12.64) kovaryans matrisi olacak (eq. 12.65)Temelde faktör analizinin yaptığı şey budur : yükler matrisini ve benzersiz bir çaprazlama matrisini bulur; öyle ki, aslında gözlenen kovaryans matrisi mümkün olduğu kadar olabildiğince :Bu çapraz unsurları dikkat edin

p(x|z)=N(x|Wz+μ,Ψ)
x
C=WW+Ψ.
ΣC
ΣWW+Ψ.
C , nın köşegen elemanlarına tam olarak eşit olacaktır, çünkü köşegen rekonstrüksiyon hatası sıfır olsun diye daima köşegen matrisi seçebiliriz . Gerçek bir meydan okuma bulmak için daha sonra yüklemeleri iyi tahmin edeceğini köşegen dışı bölümünü ait .ΣΨWΣ

köşegen olmayan kısmı değişkenler arasındaki kovaryanslardan oluşur; Bu yüzden Bishop'ın faktör yüklerinin kovaryansları yakaladığını iddia etmesi. Burada önemli bit faktör yükleri care kalmamasıdır hiç (diyagonal bireysel sapmalara ).ΣΣ

Buna karşılık, PCA yüklemeleri , ölçeklendirilen kovaryans matrisinin özvektörleridir. Yalnızca ana bileşenleri seçilirse, o zaman PCA yüklemelerinin tüm kovaryans matrisini yeniden üretmeye çalıştığı anlamına gelir (yalnızca FA olarak diyagonal olmayan kısmı). PCA ve FA arasındaki ana fark budur.W~Σm<k

ΣW~W~,

Ek yorumlar

@ Ttnphns 'ın cevabındaki (+1) çizimleri seviyorum, ancak iki değişkenli çok özel bir durumla ilgilendiklerini vurgulamak istiyorum. Eğer ele alınan sadece iki değişken varsa, kovaryans matrisi , sadece tek bir köşegen dışı eleman vardır ve bu nedenle% 100 üremek için bir faktör her zaman yeterlidir (PCA iki bileşene ihtiyaç duyacaktır). Bununla birlikte, genel olarak, çok sayıda değişken varsa (örneğin, bir düzine veya daha fazla), ne PCA ne de az sayıda bileşene sahip olan FA, kovaryans matrisini tamamen çoğaltamaz; dahası, genellikle (zorunlu olmasalar da!) benzer sonuçlar üreteceklerdir. Bu iddiayı destekleyen bazı simülasyonlar ve daha fazla açıklama için burada cevabımı görün:2×2

Bu yüzden @ ttnphns'ın çizimleri PCA ve FA'nin çok farklı olduğu izlenimini vermesine rağmen, benim düşüncem, çok az değişken olması dışında veya bazı özel durumlarda olduğu gibi olmadığıdır.

Ayrıca bakınız:

En sonunda:

Örneğin, birinci yükleme vektör en bakalım için, ise, , ve , daha sonra derdim ve oysa son derece ilişkilidir onlarla ilintisiz görünüyor haksız mıyım? 1 i , j , k p w 1 i = 10 w 1 j = 11 w 1 k = 0,1 x i x j x kw11i,j,kpw1i=10w1j=11w1k=0.1xixjxk

Bu mutlaka doğru değil. Evet, bu örnekte ve birbiriyle ilişkili olması muhtemeldir, ancak diğer faktörleri unutuyorsunuz. Belki de ikinci faktörün yükleme vektörü , ve için büyük değerlere sahiptir ; Bu onların da iyi korelasyon gösterecekleri anlamına gelir. Bu tür sonuçlar çıkarmak için tüm faktörleri dikkate almanız gerekir.x j w 2 x i x kxixjw2xixk


Cebirsel uzmanlığınızı kabul etmek ve kesinlikle cevabınızı selamlamak Yine de birinin önceki geometrik cevabını (bu örnekte benimki) "potansiyel olarak yanıltıcı" olarak etiketlemek kadar keskin olmaz. Kelimeler so hugely differentsenin, benim değil. İkincisi, it is in fact not the case, except with very few variableskendisinin bir zamanlar olduğundan daha derin olarak test edilmesi gereken bir vahiydir.
ttnphns

Merhaba @ttnphns, yorumunuz için teşekkürler. Geometrik cevaplara karşı kesinlikle hiçbir şeyim yok ve aslında mümkünse onları tercih ediyorum ! Dürüstçe cevabınızı çok seviyorum ve benim + 1'im var. Ancak, sadece iki değişkenli bir durumu dikkate almanın PCA-vs-FA farklılıklarının, diğerlerinden daha güçlü göründüğünü ve bunun potansiyel olarak (!) Yanıltıcı olabileceğini düşünüyorum . Ancak, haklısın, cevabımda bu kelimeleri kullanmamalıydım. Özür dilerim ve onu hemen şimdi düzenledim. Sadece tamamen açık olmak gerekirse: Herhangi bir düşmanlık (eğer hissediyorsanız!) Tamamen istem dışıydı.
amip, Reinstate Monica'yı

@ amoeba Neden bazı insanlar FA'nin kovaryansı koruduğunu ve PCA'nın varyansı koruduğunu söylüyor. Görevinizden, gerçekten de FA'nin kovaryansı koruduğunu biliyorum, ancak PA varyansı ve kovaryansı korumaya çalışıyor . PCA'nın varyansı koruduğunu söylemek, görevinizdeki açıklamalardan değil, nesnel işlevinden geldiğini söyler mi?
user_anon 17:18
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.