PCA'ya benzer ortogonal olmayan teknik


9

Bir 2B nokta veri kümesine sahip olduğumu ve verilerdeki tüm yerel maksimum varyansların yönlerini tespit etmek istediğimizi varsayalım:

resim açıklamasını buraya girin

PCA bu durumda yardımcı olmaz çünkü dik bir ayrışmadır ve bu nedenle her iki çizgiyi de mavi renkte algılayamaz, bunun yerine çıktısı yeşil çizgilerle gösterilene benzeyebilir.

Lütfen bu amaç için uygun olabilecek herhangi bir tekniği önerin. Teşekkürler.


Örnek veri kümenizi kullanılabilir hale getirebilir misiniz? Senin için bir şey denemek istiyorum. Saygılarımızla, Eric
Eric Melse

Yanıtlar:


10

Bağımsız Bileşen Analizi size iyi bir çözüm sunabilmelidir. Ölçümlerinizin istatistiksel olarak bağımsız değişkenlerin bir karışımından kaynaklandığı varsayılarak, dikey olmayan bileşenleri (sizin durumunuzda olduğu gibi) ayrıştırabilir.

Orada iyi öğreticiler bol internette vardır ve (örneğin denemek için birkaç serbestçe kullanılabilir uygulamaları sessiz scikit veya MDP ).

ICA ne zaman çalışmaz?

Diğer algoritmalar gibi ICA, türetildiği varsayımlar geçerli olduğunda en uygunudur. somut olarak,

  1. kaynaklar istatistiksel olarak bağımsız
  2. bağımsız bileşenler Gauss olmayan
  3. karıştırma matrisi ters çevrilebilir

ICA, karıştırma matrisi ve bağımsız bileşenlerin bir tahminini döndürür.

Kaynaklarınız Gauss olduğunda ICA bileşenleri bulamaz. İki bağımsız bileşene sahip olduğunuzu düşünün,x1 ve x2, hangileri N-(0,ben). Sonra,

p(x1,x2)=p(x1)p(x2)=12πtecrübe(-x12+x222)=12πtecrübe-||x||22

nerede ||.||. iki boyutlu vektörün normudur. Dik bir dönüşümle karıştırılırsa (örneğin bir döndürme)R,), sahibiz, ||R,x||=||x||yani olasılık dağılımı dönüşün altında değişmez. Dolayısıyla, ICA verilerden karıştırma matrisini bulamaz.


Evet, olmalı ( scikit-learn.org/stable/auto_examples/decomposition/… ), Çok teşekkürler! : D
Ahmed

1
Daha fazlasını söylerseniz bu gerçekten derin bir cevaba dönüşebilir; özellikle, @ Gottfried'in teklifini (eğik rotasyonlu PCA) teklifinizle (ICA) karşılaştırmaya karar verin - ikisi arasındaki farklar ve eksiklikler nelerdir.
ttnphns

Bu sorunun kısmen yanıtlandığını görüyorum. ICA'nın uygulanmadığı basit bir örnek ekleyerek düzenlemeye bakın.
jpmuc

3

Sözde "eğik" durum için PCA benzeri prosedürler vardır. SPSS (ve muhtemelen aynı zamanda ücretsiz yazılım klonunda) gibi stat yazılımında PSPP, eşdeğer olarak "eğik rotasyonlar" olarak adlandırılır ve bunların örnekleri "oblimin", "promax" ve daha fazlası olarak adlandırılır. Bir şeyleri doğru bir şekilde anlarsam, yazılım, eksenleri ortogonal olmayan bir alanın koordinatlarına (örneğin resimde gösterildiği gibi) dikey, öklid uzayındaki koordinatlarını yeniden hesaplayarak faktör yüklemelerini "dikdörtgenleştirmeye" çalışır. çoklu regresyondan bilinen bazı teknikler. Dahası, bunun sadece yinelemeli olarak çalıştığını ve modelin istatistiksel testinde bir veya daha fazla serbestlik derecesi tükettiğini düşünüyorum.

karşılaştırma PCA ve eğik dönüş referans el SPSS eğik dönüşler için (IBM yerinde) hesaplaması için daha formülleri içerir.

[Güncelleme] (Upps, üzgünüm, PSPP'nin eğik tipte "rotasyon" sağlamadığını kontrol ettim)


1
Hmm, üçüncü bir okumadan sonra, sorunuzun eğik dönme gerekçesinden biraz farklı olduğunu görüyorum: veri bulutunuzda, ortalamanın başlangıçta olması / verilerin bile ortalanmadığı bile değil, burada cevabımda ele aldığımdan başka bir şey olabilir. Bu durumda, cevabı daha sonra silebilirim ...
Gottfried Helms

1
Eğik "rotasyonlar" PCA'nın ardından olduğundan, soruda gösterilen durum türünü "göremezler" ve bu nedenle iki bileşeni tanımlamak için PCA'nın kendisinden daha fazla kabiliyetleri yok gibi görünmektedir.
whuber


2

Diğer cevaplar, dikkate alabileceğiniz teknikler hakkında bazı yararlı ipuçları vermiştir, ancak kimse varsayımınızın yanlış olduğuna işaret etmemiştir: şematik resminizde mavi olarak gösterilen çizgiler, varyansın yerel maksimumu DEĞİLDİR.

Görmek için yönündeki varyansın w tarafından verildi wΣw, nerede Σverinin kovaryans matrisini belirtir. Yerel maksimumu bulmak için bu ifadenin türevini sıfıra koymalıyız. Gibiw birim uzunluğuyla sınırlı olduğundan, bir terim eklememiz gerekir λ(ww-1) nerede λbir Lagrange'ın çarpanıdır. Farklılaştırarak, aşağıdaki denklemi elde ederiz:

Σw-λw=0.

Bunun anlamı şudur ki w"Kovaryans" matrisinin bir özvektörü, yani ana vektörlerden biri olmalıdır. Başka bir deyişle, PCA size tüm yerel maksimumları verir , başkaları yoktur.


Merhaba, matematikte çok fazla geçmişim yok, yukarıda bahsettiğiniz şeyleri öğrenmek için bana iyi bir kaynak önerebilir misiniz? Teşekkürler.
Ahmed

@Ahmed: Emin değilim, zaten ne bildiğinize bağlı. Sanırım lineer cebir ve analiz üzerine iyi ders kitaplarına ihtiyacınız olacak. Bu oldukça basit şeyler, herhangi bir iyi ders kitabında ele alınmalıdır.
amip
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.