Temel bileşen analizi ile çok boyutlu ölçeklendirme arasındaki fark nedir?


133

PCA ve klasik MDS arasındaki fark nedir? MDS'ye karşı nonmetrik MDS'ye ne dersiniz? Birini diğerinden tercih edeceğiniz bir zaman var mı? Yorumlar nasıl farklı?

Yanıtlar:


95

Klasik Torgerson'ın metrik MDS'si, mesafeleri benzerliklere dönüştürerek ve bunlar üzerinde PCA (öz-ayrışma veya tekil-değer-ayrışma) gerçekleştirerek gerçekleştirilir. [ Bu prosedürün diğer adı ( distances between objects -> similarities between them -> PCAyüklerin aranan koordinatlar olduğu) Ana Koordinat Analizi veya PCoA'dır .] Bu nedenle PCA, en basit MDS'nin algoritması olarak adlandırılabilir.

Metrik olmayan MDS, PCA'dan daha çok yönlü bir eşleme tekniği olan ve metrik MDS'ye de uygulanabilen yinelemeli ALSCAL veya PROXSCAL algoritmasına (veya bunlara benzer bir algoritmaya) dayanmaktadır . PCA iken korur m sizin için önemli boyutlara ALSCAL / PROXSCAL uyuyor yapılandırmayı m boyutlarında (eğer önceden tanımlamak m ) ve daha doğrudan ve doğru bir çoğunlukla (aşağıdaki İllüstrasyon bölümüne bakın) PCA daha haritasında ayrılıkları çoğalır.

Bu nedenle, MDS ve PCA muhtemelen aynı hizada değil ya da birbirlerine zıt olacak şekilde değildirler. PCA sadece bir yöntemdir, MDS bir analiz sınıfıdır. Haritalama olarak, PCA özel bir MDS örneğidir. Öte yandan, PCA, veri indirgemesi olarak sadece bir haritalamadan daha fazlası olan özel bir Faktör analizi durumu iken, MDS sadece bir haritalamadır.

Metrik MDS - metrik olmayan MDS ile ilgili sorunuza gelince, cevabı çok basit olduğundan yorum yapmak için çok az şey var. Girdi farklılıklarımın öklid mesafelerine çok yakın olduğuna inanıyorum, lineer bir dönüşümün onları m-boyutlu uzayda haritalandırmak için yeterli olacağına, metrik MDS'yi tercih edeceğim. İnanmazsam, o zaman metrik olmayan MDS kullanımı anlamına gelen monotonik dönüşüm gereklidir.


Bir okuyucu için terminoloji üzerine bir not . Dönem Klasik (el) MDS (CMDS) YTH'de geniş bir literatürde iki farklı anlamlara sahip olabilir, bu nedenle belirsiz ve kaçınılmalıdır. Tanımlardan biri, CMDS'nin Torgerson'ın metrik MDS'si ile eşanlamlı olmasıdır. Bir başka tanım, CMDS'nin tek bir matris girişine sahip herhangi bir MDS (herhangi bir algoritma; metrik veya metrik olmayan analiz) olmasıdır (çünkü bir kerede birçok matrisi analiz eden modeller vardır - Bireysel "INDSCAL" modeli ve Çoğaltılmış model).


Cevap için İllüstrasyon . Bazı nokta bulutu (elips), tek boyutlu bir mds haritası üzerinde eşleştiriliyor. Kırmızı noktalarla bir çift nokta gösterilir.

görüntü tanımını buraya girin

Yinelemeli veya "gerçek" MDS, nesneler arasındaki ikili mesafeleri yeniden düzenlemeyi amaçlar. Bunun için herhangi bir MDS'nin görevidir . Çeşitli stresi ya da uyumsuz kriterleri arasında en aza indirmesidir O ile riginal mesafeler ve mesafe m ap: , , . Bir algoritma (metrik olmayan MDS) olabilir veya olmayabilir (metrik MDS) bu şekilde monotonik dönüşümü içerebilir.DoDm22Do2Dm21DoDm1

PCA tabanlı MDS (Torgerson's veya PCoA) düz değil. Orijinal alandaki nesnelerle haritadaki görüntüleri arasındaki kare mesafeleri en aza indirir. Bu tamamen gerçek bir MDS görevi değildir; MDS olarak, yalnızca atılan küçük ana eksenlerin zayıf olduğu ölçüde başarılıdır. Eğer çok daha fazla varyans açıklayan eski yalnız ölçüde özellikle noktaları birbirinden uzak elips boyunca yalan söylediği için, bulut içinde ikili mesafeler yansıtabilir. Yinelemeli MDS her zaman ve özellikle harita çok düşük boyutlu istendiğinde kazanacaktır. Yinelemeli MDS de, bir bulut elipsin ince olduğu durumlarda daha başarılı olur, ancak mds-görevini PCoA'dan daha iyi yerine getirir. İki merkezli matrisin özelliği ile ( burada açıklanmıştır)P1P2) , yukarıdaki küçültmelerden farklı olan .Do22Dm22

PCA, bir kez daha bulutun puanlarını , en avantajlı tüm şirket tasarrufu sağlayan alt alana yansıtıyor. Yinelemeli MDS'nin yaptığı gibi , bu açıdan en fazla tasarruf sağlayan bir alt alandaki noktaların göreceli konumlarını ikili uzaklıklarda yansıtmaz . Yine de, tarihsel olarak PCoA / PCA, metrik MDS yöntemleri arasında kabul edilir.


3
(+1) Her iki cevabı da beğendim, bu muhtemelen biraz daha fazla.
Dmitrij Celov

PCoA ile ilgili PDF bağlantısı. Web Arşivinde bulunabilir: web.archive.org/web/20160315120635/http://forrest.psych.unc.edu/…
Pierre

49

Uhm ... oldukça farklı. PCA'da çok değişkenli sürekli veri (her konu için çok değişkenli bir vektör) verilir ve onları kavramsallaştırmak için bu kadar boyuta ihtiyaç duyup duymadığınızı anlamaya çalışıyorsunuz. (Metrik) MDS'de, nesneler arasındaki mesafelerin matrisi verilir ve bu nesnelerin uzayda konumlarının ne olduğunu (1D, 2D, 3D vb. Boşluğa ihtiyacınız olup olmadığını) anlamaya çalışıyorsunuz. Metrik olmayan MDS'de yalnızca 1 ve 2 numaralı nesnelerin 2 ve 3 numaralı nesnelerden daha uzak olduğunu bildiğiniz için, boyutları ve konumları bulmaya çalışarak bunu ölçmeye çalışırsınız.

Dikkate değer bir hayal gücü ile PCA ve MDS'nin ortak bir amacının nesneleri 2D veya 3D olarak görselleştirmek olduğunu söyleyebilirsiniz. Ancak girdilerin ne kadar farklı olduğu göz önüne alındığında, bu yöntemler çok değişkenli herhangi bir ders kitabında uzaktan bile ilgili olarak tartışılmayacaktır. PCA için kullanılabilir olan verileri MDS için kullanılabilen verilere dönüştürebileceğinizi tahmin ediyorum (örneğin, Mahalanobis mesafelerini nesneler arasında hesaplayarak, örnek kovaryans matrisini kullanarak), ancak bu hemen bilgi kaybına neden olur: MDS yalnızca tanımlanır yeri ve rotasyonu ve son iki PCA ile daha bilgilendirici yapılabilir.

Birine metrik olmayan MDS sonuçlarını kısaca gösterecek olsaydım ve onlara ayrıntıya girmeden ne yaptığı hakkında kabaca bir fikir vermek isterdim:

Sahip olduğumuz benzerlik veya farklılık ölçüleri göz önüne alındığında, nesnelerimizi / konularımızı, oluşturdukları 'şehirlerin' aralarında yapabileceğimiz benzerlik önlemlerine en yakın olan mesafeleri olacak şekilde eşleştirmeye çalışıyoruz. Biz sadece mükemmel onları eşleştirebilirsiniz olsa boyutlu uzayın, bu yüzden burada iki en bilgilendirici boyutlarını temsil ediyorum - İki lider başlıca bileşenleri ile bir resim gösterdi eğer PCA yapacağını tür ne gibi.n


18
PCA, standart değişkenlerde hesaplanan öklid mesafeleri olan bir MDS'ye eşdeğer bir korelasyon matrisine uygulanmaz mı?
chl

Öyleyse, birisine metrik olmayan MDS sonuçlarını kısaca gösterip, onlara ayrıntıya girmeden ne yaptığı hakkında kaba bir fikir vermek istersem, yanıltıcı olmadan "bu PCA'ya benzer bir şey yapar" diyebilir miyim?
Freya Harrison

6
"Sahip olduğumuz benzerlik veya farklılık ölçütleri göz önüne alındığında, nesnelerimizi / konularımızı, oluşturdukları" şehirlerin "bu benzerlik önlemlerine en yakın olan mesafeleri olacak şekilde eşleştirmeye çalışıyoruz. Onları yapabiliriz, onları sadece -boyutlu uzayda mükemmel bir şekilde haritalandırabiliriz , bu yüzden buradaki en bilgilendirici boyutları temsil ediyorum - PCA'da iki öncü bileşenle bir resim göstermiş olsaydınız nasıl bir şey olurdu ". n
StasK

+1 Güzel - benim için, bu yorum güzel bir şekilde cevabınızı bağlar. Teşekkürler.
Freya Harrison

47

İki tür metrik MDS

Aşağıdaki gibi metrik boyutlu ölçekleme (MDS) görevi soyut formüle edilebilir: Belirli bir matris arası ortalama mesafelerin sayı, veri noktalarının düşük boyutlu bir gömme bulmak şekildedir Aralarındaki öklid mesafeleri verilen mesafelere yaklaşık değerlerdir:n×nDnRk

xixjDij.

Burada "yaklaşık" ifadesi normal bir yeniden yapılanma hatası anlamında anlaşılırsa, yani amaç "stres" adlı maliyet işlevini en aza indirgemekse: sonra çözüm PCA ile aynı değildir . Çözüm herhangi bir kapalı formül tarafından verilmemiştir ve özel bir yinelemeli algoritma ile hesaplanmalıdır.

StressDxixj2,

"Torgerson MDS" olarak da bilinen "Klasik MDS", bu maliyet işlevini "zorlama" adı verilen, ancak eşdeğer olmayan bir değerle değiştirir : merkezlenmiş skaler ürünlerin yeniden yapılanma hatalarını mesafeler yerine en aza indirmeyi amaçlamaktadır. O çıkıyor den hesaplanabilir (eğer Öklid mesafeler) ve bunun minimize imar hatası sonraki bölümde gösterildiği gibi, PCA yaptığı tam olarak budur.

StrainKcxi,xj2,
KcDDKc

Öklid mesafelerinde Klasik (Torgerson) MDS, PCA'ya eşdeğerdir

Karekod toplanacak Let ve kolonlar halinde gözlemler ve özellikleri ile büyüklük. Let çıkarılır kolon anlamına gelir merkezlenmiş matris.Xn×kXc

Daha sonra PCA, tekil değer ayrıştırması yapıyor , sütunları asıl bileşenlerdir. Bunları elde etmenin yaygın bir yolu, kovaryans matrisi , ancak diğer bir olası yol, Gram matrisi : asıl bileşenler kare kökleri tarafından ölçeklendirilen özvektörleridir. ilgili özdeğerlerin.Xc=USVUS1nXcXcKc=XcXc=US2U

i görmek kolaydır , burada bir matrisidir. Bundan hemen sonra burada , ortalanmamış verilerin Gram matrisidir. Bu yararlıdır: eğer gram olmayan merkezlenmiş veri matrisine sahipsek, kendisine dönmeden doğrudan merkezleyebiliriz . Bu işlem bazen denirXc=(I1n1n)X1nn×n

Kc=(I1nn)K(I1nn)=K1nnKK1nn+1nnK1nn,
K=XXXdouble-centering : satır araçlarını ve sütun araçlarını (ve iki kez çıkarılacak olan genel ortalamayı geri ekleyerek) olduğuna dikkat edin, böylece hem satır araçlarının hem de sütun araçlarının sıfıra eşit olmasını sağlar.KKc

Şimdi bir düşünün matris ile ikili Öklid mesafeleri. PCA gerçekleştirmek için bu matris mi? Cevabın evet olduğu ortaya çıktı.n×nDDij=xixjKc

Aslında, kosinüs kanunları uyarınca görüyoruz ki, So , sadece bazı satır ve sütun sabitleri ile farklılık gösterir (burada eleman-bilge kare demektir!). İki merkeze gidersek, :

Dij2=xixj2=xix¯2+xjx¯22xix¯,xjx¯=xix¯2+xjx¯22[Kc]ij.
D2/2KcD2Kc
Kc=(I1nn)D22(I1nn).

Bu, ikili Euclidean uzaklıkların matrisinden başlayarak PCA'yı gerçekleştirebileceğimizi ve temel bileşenleri alabileceğimiz anlamına gelir . Bu tam olarak klasik (Torgerson) MDS'nin yaptığı şeydir: , yani sonucu PCA ile .DDKcUS

Elbette,daha sonra klasik MDS başka bir şeyle sonuçlanacaktır.xixj

Kaynak: İstatistiksel Öğrenmenin Öğeleri , bölüm 18.5.2.


Ben henüz bu aracılığıyla düşünmüyordu itiraf etmeliyim: ama burada "inandırıcılık kontrol" var ben merak: Matrislerin boyutlarından, senin Gram matrisi olmamalı ise ? XXTn×n
15'te cbeleites

Teşekkürler, @cbeleites, elbette haklısınız - bu sadece bir yazım hatası. Şimdi düzeltir. Başka hatalar görürseniz bana bildirin (veya doğrudan düzenlemekten çekinmeyin).
amip

1
+1. Ve cevabımın ilk paragrafında belirtilenleri matematikle gösterdiğiniz için teşekkür ederim.
ttnphns

2
+1 Bunun kabul edilen / en iyi cevap olmasını diliyorum. Bence kolayca olmayı hakediyor.
Zhubarb

35

PCA klasik MDS gibi aynı sonuçlar verir eğer Öklit mesafesi kullanılır.

Cox ve Cox'tan alıntı yapıyorum (2001), s. 43-44:

Temel bileşenler analizi ve PKO [temel koordinatlar analizi, yani klasik MDS] arasında bir farklılık vardır ki burada farklılıklar Öklid mesafesi ile verilmektedir.

Cox & Cox'taki bölüm bunu açıkça açıklıyor:

  • Sahip hayal ait = özelliklerini göre ürün boyutları, merkezli demekXnp
  • PCA, kovaryans matrisinin ~ (n-1 ile bölünmüş) özvektörlerini bularak elde edilir - özvektörler ve özdeğerler .XXξμ
  • MDS, ilk önce , uzaklık matrisine dönüştürülür , burada, Öklid mesafesi, yani , sonra özvektörler bulunur - özvektörler , özdeğerler .XXXvλ
  • p 43: " nin öz değerlerinin, ekstra np sıfır özdeğerleriyle birlikte, aynı olduğu bilinen bir sonuçtur ." Yani, , =XXXXi<pμiλi
  • Özvektörlerin tanımına geri dönersek, özdeğerlerini düşünün . ithXXvi=λivi
  • Önceden ile , bizviX(XX)Xvi=λiXvi
  • Ayrıca . Yana , bunu almak için .XXξi=μiξiλi=μiξi=Xvii<p

2
R'de bazı kodlamalar yaptım ve PCD için klasik MDS ve prcomp'un bir uygulaması olarak cmdscale kullandım - ancak sonuç aynı değil ... eksik olduğum herhangi bir nokta var mı?
user4581,

3
same results as classical MDS. "Klasik MDS" ile Torgerson'ın MDS'sini burada anlamalısınız. Torgerson en MDS için Sonra açıklamada, gerçekten de doğrudur olduğu aslında PCA (sadece uzaktan matrisinden başlayarak). "Klasik MDS" yi farklı bir şekilde tanımladıysanız (cevabımı görün), ifade doğru değildir.
ttnphns

7
Bekle, nasıl dünya üzerinde XX 'Öklid Mesafesi sağlıyor? XX 'bir iç üründür - eğer matris standardize olsaydı kosinüs benzerliği verirdi. Öklid mesafesi, bir çıkarma ve bir kare kökü gerektirir.
ShainaR

@ user1705135 5. puanınıza göre kafam karıştı. mı? XXvi=λivi
Michael,

4

Karşılaştırma: "Metrik MDS, SAME sonucunu PCA olarak verir" - prosedürel olarak - SVD'nin optimum olanı elde etmenin nasıl kullanıldığına baktığımızda. Ancak korunmuş yüksek boyutlu kriterler farklıdır. PCA bir merkezlenmiş kovaryans matrisi kullanırken, MDS çift merkezli mesafe matrisleri ile elde edilen bir gram matrisi kullanır.

Fark matematiksel koymak olur: PCA maksimize olarak görülebilir boyunca kısıtlamalar altında ve böylece eksen / ana bileşenler veren ortogonaldir. Çok boyutlu ölçeklemede, bir gram matrisi ( olarak temsil edilebilecek bir psd matrisi ), sıralar arasındaki öklid mesafesinden hesaplanır ve aşağıdakiler üzerinden en aza indirilir . simge küçült: .Tr(XT(I1neeT)X)XXZTZXY||GYTY||F2

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.