Mantıksal adımlarla saçılma noktalarının yardımı ile PCA-Factor analizinin temel, ancak bir tür özenli açıklaması . (Soruya yaptığı yorumda, başka bir yerle bağlantı kurmak yerine bir cevap göndermem için beni cesaretlendiren @amoeba'ya teşekkür ederim. İşte bu bir eğlence, geç yanıt.)
Değişken özetleme olarak PCA (özellik çıkarma)
PCA'yı zaten biliyorsunuzdur umarım. Şimdi canlandırmak için.
V1V2a
P1=a11V1+a12V2
P2=a21V1+a22V2
Bu katsayılar, dönme kosinüsleridir (= yön kosinüsleri, ana yönler) ve özvektörler olarak adlandırılanları içerirken, kovaryans matrisinin öz değerleri temel bileşen varyanslarıdır. PCA'da, genellikle zayıf son bileşenleri atarız: bu nedenle, az bilgi kaybıyla, verileri ilk önce çıkarılan birkaç bileşenle özetleriz.
Covariances
V1 V2
V1 1.07652 .73915
V2 .73915 .95534
----PCA----
Eigenvalues %
P1 1.75756 86.500
P2 .27430 13.500
Eigenvectors
P1 P2
V1 .73543 -.67761
V2 .67761 .73543
Çizilen verilerimizle P1 bileşen değerleri (puanları) P1 = .73543*V1 + .67761*V2
ve P2 bileşeni ile atıyoruz. P1'in varyansı, 1.75756
kovaryans matrisinin birinci öz değeridir ve bu nedenle P1, eşit 86.5%
olan toplam varyansı açıklar (1.07652+.95534) = (1.75756+.27430)
.
Değişken tahmini olarak PCA ("gizli" özellik)
P1 V1V2
V1=a11P1+E1
V2=a12P1+E2
aE
V1^=a11P1V2^=a12P1E1=V1−V1^E2=V2−V2^
Şimdi, PCA'nın karakteristik özelliği, verideki her nokta için E1 ve E2'yi hesaplarsak ve bu koordinatları çizersek - yani yalnızca hataların saçılım grafiğini çizersek, "hata verileri" bulutunun atılan P2 bileşeni ile çakışmasıdır. Ve bunu yapar: bulut, bej bulutla aynı resimde çizilir - ve aslında P2 bileşen puanlarıyla döşenen P2 eksenini ( Şekil 1 ) oluşturur.
Merak etme, diyebilirsiniz. Çok açık: PCA'da , atılan küçük bileşen (ler) , gizlilik özelliği (ler) P1'in orijinal değişkenlerini (V) açıklayan (geri yükleyen) modelde (E) tahmin hatalarında kesin olarak ayrıştırılan şeydir . Hatalar E birlikte, sadece sol bileşen (ler) i oluşturur. İşte faktör analizi PCA'dan farklılaşmaya başlar.
Ortak FA fikri (gizli özellik)
Resmen, çıkarılan gizli özellik (ler) ile tezahür değişkenlerini öngören model, PCA'daki gibi aynıdır; [ Eşd. 3 ]:
V1=a1F+E1
V2=a2F+E2
F, verilerden çıkarılan ve Denklem'de P1'in yerine geçen gizli ortak faktördür . Modeldeki fark, FA'de, PCA'nın aksine, hata değişkenlerinin (E1 ve E2) birbirleriyle ilişkisiz olması gerektiğidir .
aaaaaaa
Tamam, konuya geri dön. E1 ve E2, faktör analiziyle ilişkilendirilmez; bu nedenle, yuvarlak veya eliptik ama çapraz olarak yönlendirilmemiş bir hata bulutu oluşturmaları gerekir. PCA'da bulutları, çapraz giden P2'ye denk gelen düz bir çizgi oluşturdu. Her iki fikir de resimde gösterilmiştir:
FA'de hataların yuvarlak (çapraz olarak uzatılmamış) bulut olduğunu unutmayın. FA'deki faktör (gizli) biraz farklıdır, yani PCA'daki "gizli" olan ilk ana bileşen doğru değildir. Resimde, faktör çizgisi biraz garip bir şekilde konik - sonunda sonuçta netleşecek.
PCA ve FA arasındaki bu farkın anlamı nedir? Veri bulutunun köşegen elips şeklinde görülen değişkenler bağıntılıdır. P1, maksimum varyansı sınırlandırdı, bu yüzden elips P1'e birlikte yönlendirildi. Sonuç olarak P1 kendiliğinden korelasyonu açıkladı; ancak mevcut korelasyon miktarını yeterince açıklamadı; korelasyon değil, veri noktalarındaki değişimi açıklamaya çalıştı. Aslında, sonucu köşegen görünümünde olan korelasyon için fazlaca hesaba katılmış, fazla hesap için telafi eden hatalar bulutu ilişkilendirilmiştir. P1 yalnız kapsamlı korelasyon / Kovaryas gücünü açıklayamam. Faktör F olabilirYalnız başına yap; ve bunu yapabildiği zaman, tam olarak hataların ilişkisiz kalmaya zorlanabileceği durumdur. Hata bulutu yuvarlak olduğu için, korelasyon olmadığı gibi - pozitif veya negatif - faktör ayıklandıktan sonra kalmıştır, bu yüzden her şeyi kaynayan faktördür.
Boyutsallığın azaltılması olarak, PCA varyansı açıklar , ancak korelasyonları kesin olarak açıklar. FA, korelasyonları açıklar, ancak PCA'nın yapabildiği kadar veri değişikliğini hesaba katamaz (ortak faktörlere göre). FA'deki faktör (ler), topluluk olarak adlandırılan net korelasyon bölümü olan değişkenliğin bir bölümünü ; ve bu nedenle faktörler, korelasyona sokmak için girdi değişkenlerini "içinde" veya "arkasına" gizleyen gerçek ama gözlemlenemeyen kuvvetler / özellikler / özellikler olarak yorumlanabilir. Çünkü korelasyonu matematiksel olarak iyi açıklarlar. Temel bileşenler (ilk birkaç tanesi) bunu matematiksel olarak da açıklamamaktadır ve bu nedenle “gizli özellik” olarak adlandırılabilir (ya da böyle) sadece bazı gergin ve geçici olarak .
Çarpılması yüklemeler analizi kovaryans matrisi üzerinde dayanıyordu eğer yerine korelasyon matrisinin daha (dışarı örnekte olduğu gibi) - kovaryans şeklinde (geri yükleme) korelasyon veya correlatedness açıklıyor şeydir. Verilerle yaptığım faktör analizi sonucunda a_1=.87352, a_2=.84528
ürün a_1*a_2 = .73837
neredeyse kovaryansa eşittir .73915
. Öte yandan, PCA yüklemeleri a1_1=.97497, a1_2=.89832
çok a1_1*a1_2 = .87584
fazla abartılıyordu .73915
.
PCA ve FA arasındaki temel teorik ayrımı açıkladıktan sonra, fikri örneklemek için verilerimize geri dönelim.
FA: yaklaşık çözüm (faktör puanları)
Aşağıda geçici olarak "alt-optimal faktör analizi" olarak adlandıracağımız analizin sonuçlarını gösteren dağılım grafiği yer almaktadır, Şekil 3 .
A technical detail (you may skip): PAF method used for factor extraction.
Factor scores computed by Regression method.
Variance of the factor scores on the plot was scaled to the true
factor variance (sum of squared loadings).
PCA'nın Şekil 2'deki kalkışlara bakınız . Hataların bej bulutu yuvarlak değil, çapraz olarak eliptik, - yine de PCA'da meydana gelen ince çapraz çizgiden çok daha şişman. Ayrıca, hata konektörlerinin (bazı noktalar için gösterilmiştir) artık paralel olmadığına dikkat edin (PCA'da, tanımı gereği P2'ye paraleldir). Dahası, örneğin, faktörün F ekseni üzerinde simetrik olarak duran "F" ve "E" noktalarına bakarsanız, beklenmedik bir şekilde, karşılık gelen faktör puanlarının oldukça farklı değerler olduğunu göreceksiniz. Başka bir deyişle, faktör puanları sadece doğrusal olarak dönüştürülmüş temel bileşen puanları değildir: faktör F, P1 yolundan farklı olarak kendi yolunda bulunur. Aynı arsa üzerinde birlikte gösterilen Ve eğer kendi eksenleri tam olarak uyuşmuyorsa Şekil 4'te :
Bunun dışında, biraz farklı bir oryantördürler, F (puanlarla döşendiği gibi) daha kısadır, yani P1'in hesaba katmasından daha küçük bir varyansa neden olur. Daha önce belirtildiği gibi, faktör yalnızca V1 V2'nin korelasyonundan sorumlu olan değişkenliği, yani değişkenleri ilkel kovaryanstan 0
gerçek kovaryansa getirmek için yeterli olan toplam varyansın bir kısmını oluşturur .73915
.
FA: optimal çözüm (gerçek faktör)
Optimal bir faktör çözümü, hataların yuvarlak veya çapraz olmayan eliptik bulut olduğu durumlardadır: E1 ve E2, tamamen ilişkisizdir . Faktör analizi gerçekte döner böyle bir çözüm. Yukarıdakiler gibi basit bir dağılım grafiğinde göstermedim. Neden yaptım? - sonuçta en ilginç şey bu olurdu.
Sebep, bir 3B arsa benimsemeye bile yetecek kadar saçılma grafiği üzerinde gösterilmesinin imkansız olmasıdır. Teorik olarak oldukça ilginç bir nokta. E1 ve E2 hiçbir korelasyon yapmak için bütün üç değişken, K, E1, E2 görünür değil yalan söylemek zorunda V1, V2 tarafından tanımlanan boşluk (düzlem) 'de; ve üçünün birbirleriyle ilişkisiz olması gerekir . Böyle bir saçılma çizgisinin 5D'de (ve belki de 4D'de bazı hile ile) çizilmesinin mümkün olduğuna inanıyorum, ama ne yazık ki 3D dünyasında yaşıyoruz. F faktörü hem E1 hem de E2 ile ilişkilendirilmemelidir (ikisi ikisi de ilişkilendirilmese de) çünkü F'nin gözlemlenen verilerdeki tek (temiz) ve tam bir korelasyon kaynağı olması gerekiyordu . Faktör analizi toplam varyansın böler vep
iki değişkenli ilişkisiz (birbiriyle örtüşmeyen) bölüme girdi değişkenleri: toplulukluluk bölümü ( m
-boyutlu, m
ortak faktörlerin hüküm sürdüğü yer) ve benzersizlik bölümü ( p
-boyutsal, hataların aynı zamanda benzersiz faktörler olarak adlandırıldığı, karşılıklı olarak ilişkilendirilmemiş).
Öyleyse, verilerimizin gerçek faktörünü burada bir saçılma grafiği üzerinde göstermediğim için afedersiniz. Veri noktaları gösterilmeden burada yapıldığı gibi "konu alanı" ndaki vektörler üzerinden yeterince görselleştirilebilir .
Yukarıda, bölüm "ortak FA (latent özelliği) fikrine" ben olmadığını gerçek faktör eksenini uyarmak için kama olarak (eksen F) faktörünü görüntülenen değil düzlem V1 V2 yalan. Bunun anlamı - P1 ana bileşeninin aksine - Eksen olarak faktör F, uzayda V1 veya V2 ekseninin bir dönüşü olmadığı ve değişken olarak F ise V1 ve V2 değişkenlerinin doğrusal bir birleşimi olmadığı anlamına gelir . Bu nedenle F, bunların bir türevi değil, dış, bağımsız bir değişken gibi modellenir (V1 v2 değişkenlerinden elde edilir). Gibi denklemler Eq.1 PCA başlar yerden hesaplamak için uygulanamayacağı doğrudur resmen izomorfik denklemler ise faktör analizinde (optimal) faktörünü Eq.2 ve 3b yardımıHer iki analiz için de geçerlidir. Yani, PCA değişkenlerinde bileşenler üretilir ve bileşenler geri değişken değişkenleri oluşturur; FA içinde faktör (ler) / oluşturmak değişkenleri tahmin değerleri ve geri değil ortak faktör modeli kavramsal kabul - nedenle , teknik faktörlerin, değişkenlerden ekstre halde.
Sadece gerçek faktör tezahür değişkenlerin bir fonksiyonu değil, gerçek faktörün değerleri vardır benzersiz tanımlanmamış . Başka bir deyişle, basitçe bilinmemektedir. Bunların hepsi, 5D analitik alanında olduğumuz ve evdeki verilerin 2D alanında olmadığı gerçeğinden kaynaklanıyor. Faktör puanları olarak adlandırılan gerçek faktör değerlerine yalnızca iyi yaklaşımlar (bir takım yöntemler vardır ) bizim için var. Faktör skorları ana bileşen skorları gibi, bunların V1, V2, doğrusal fonksiyon olarak hesaplanır, düzlem V1 V2 yalan yoktur ve bu da açık değildi"FA: yaklaşık çözüm (faktör puanları)" bölümünde çizdim. Temel bileşen puanları gerçek bileşen değerleridir; faktör puanları, yalnızca belirlenmiş gerçek faktör değerlerine makul bir yaklaşımdır.
FA: prosedürün toparlanması
a
Bu nedenle, "FA: yaklaşık çözüm (faktör puanları)" bölümünde gösterdiğim "faktör çözümü" aslında optimal yüklere, yani gerçek faktörlere dayanıyordu. Ancak puanlar kaderce en uygun değildi. Skorlar, bileşen puanları gibi gözlemlenen değişkenlerin doğrusal bir fonksiyonu olarak hesaplanır, bu yüzden her ikisi de bir dağılım grafiği üzerinde karşılaştırılabilir ve PCA fikrinden FA fikrine doğru kademeli bir geçiş gibi göstermek için didaktik takipte yaptım.
Bir "faktörlerin alanı" ndaki faktör puanlarıyla aynı iki katlı faktör yüklerinin üzerine çizilirken dikkatli olunmalıdır , puanların daha fazla etkenle ilgili olduğu durumlarda yüklerin gerçek faktörlerle ilgili olduğunun bilincinde olun ( bu konudaki yorumlarıma bakınız ).
Faktörlerin dönmesi (yükler) gizli özellikleri yorumlamaya yardımcı olur. Yüklerin Rotasyon yapılabilir PCA de sen faktör analizi sanki PCA kullanıyorsanız (bu değişken tahmin olarak PCA mi göreceğiz). PCA, değişken sayısı arttıkça FA sonuçlarında birleşme eğilimindedir ( pratik ve kavramsal benzerlikler ve iki yöntem arasındaki farklar konusunda son derece zengin konuya bakın ). Bu cevabın sonunda PCA ile FA arasındaki farklar listeme bakın . Adım adım iris veri setinde PCA vs FA hesaplamaları burada bulunur . Bu konunun dışındaki konuyla ilgili diğer katılımcıların cevaplarıyla ilgili çok sayıda iyi bağlantı vardır; Üzgünüm mevcut cevapta sadece birkaçını kullandım.
Ayrıca PCA ve FA arasındaki farkların bir mermi listesine bakın burada .