Bartlett's Test ile teşhis edilen küresellik neden PCA'nın uygunsuz olduğu anlamına gelir?


14

Bartlett Testinin örneklerinizin eşit varyansa sahip popülasyonlardan olup olmadığını belirlemekle ilgilendiğini anlıyorum.

Örnekler eşit varyansa sahip popülasyonlardan geliyorsa, testin sıfır hipotezini reddedemeyiz ve bu nedenle temel bir bileşen analizi uygun değildir.

Bu durumla ilgili sorunun (homoskedastik veri kümesine sahip olması) nerede olduğundan emin değilim. Tüm verilerinizin temeldeki dağıtımının aynı olduğu bir veri kümesine sahip olmanın sorunu nedir? Bu durum mevcutsa büyük bir anlaşma görmüyorum. Bu neden PCA'yı uygunsuz hale getirsin?

İnternette hiçbir yerde iyi bir bilgi bulamıyorum. Bu testin neden bir PCA ile ilgili olduğunu yorumlama konusunda deneyimi olan var mı?

Yanıtlar:


15

Soru başlığına cevap olarak.

1

Şimdi çok değişkenli bulutun tamamen küresel olduğunu düşünün (yani kovaryans matrisi, kimlik matrisi ile orantılıdır). Daha sonra 1) herhangi bir keyfi boyut temel bileşenlere hizmet edebilir, bu nedenle PCA çözümü benzersiz değildir; 2) tüm bileşenler aynı varyanslara (özdeğerler) sahiptir, bu nedenle PCA verileri azaltmaya yardımcı olamaz.

Çok değişkenli bulutun, değişkenlerin eksenleri boyunca kesinlikle uzunlamasına elipsoid olduğu ikinci vakayı düşünün (yani kovaryans matrisi diyagonaldir: diyagonal hariç tüm değerler sıfırdır). Sonra PCA dönüşümü tarafından ima edilen dönüş sıfır olacaktır; temel bileşenler değişkenlerin kendisidir, sadece yeniden sıralanır ve potansiyel olarak işaret döndürülür. Bu önemsiz bir sonuçtur: verileri azaltmak için bazı zayıf boyutları atmak için PCA'ya gerek yoktu.


1


14

Görünüşe göre Bartlett testi olarak adlandırılan iki test var . Referans verdiğiniz (1937), örneklerinizin eşit varyanslara sahip olup olmadığını belirler. Bir diğeri, bir veri kümesi için korelasyon matrisinin kimlik matrisi olup olmadığını test ediyor gibi görünmektedir (1951). Kimlik korelasyon matrisi olan verilerde PCA'yı çalıştırmamanız daha mantıklıdır, çünkü orijinal değişkenlerinizi zaten ilişkisiz oldukları için geri alırsınız. Karşılaştır, ör.


2
+1 Bu, karışıklıkları diğer yanıttan daha iyi çözer.
HelloWorld
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.