«pca» etiketlenmiş sorular

Temel bileşen analizi (PCA) doğrusal boyutsallık azaltma tekniğidir. Çok değişkenli bir veri kümesini olabildiğince fazla bilgi (varyans) koruyan daha küçük bir yapılandırılmış değişken grubuna indirger. Temel bileşenler olarak adlandırılan bu değişkenler, giriş değişkenlerinin doğrusal kombinasyonlarıdır.

1
Bir sınıflandırma tekniği olan LDA'nın PCA gibi boyutsallık azaltma tekniği olarak nasıl işlev gördüğü
Bu makalede , yazar doğrusal diskriminant analizini (LDA) temel bileşen analizine (PCA) bağlar. Sınırlı bilgimle, LDA'nın PCA'ya nasıl benzediğini takip edemiyorum. Her zaman LDA'nın lojistik regresyona benzer bir sınıflandırma algoritması olduğunu düşündüm. LDA'nın PCA'ya nasıl benzediğini anlamada bazı yardımları takdir edeceğim, yani boyutsallık azaltma tekniği nasıl.

1
Konu (çift) uzayda PCA'nın geometrik olarak anlaşılması
Temel bileşen analizinin (PCA) konu (ikili) alanda nasıl çalıştığını sezgisel bir şekilde anlamaya çalışıyorum . İki değişken, 2D veri kümesi düşünün ve ve veri noktası (veri matrisi isimli ve ortalanmış olduğu varsayılmaktadır). PCA'nın olağan sunumu, noktasını dikkate almamız , kovaryans matrisini yazmamız ve özvektörlerini ve özdeğerlerini bulmamızdır; ilk PC maksimum …

2
PCA'yı zaman serisi verileri üzerinde nasıl yorumlayabilirim?
Son zamanlarda "Küme hesaplamasıyla beyin aktivitesini haritalama" başlıklı yeni bir dergi makalesinde PCA kullanımını anlamaya çalışıyorum Freeman ve ark., 2014 ( laboratuvar web sitesinde ücretsiz pdf mevcuttur ). Zaman serileri verilerinde PCA kullanır ve beynin bir haritasını oluşturmak için PCA ağırlıklarını kullanırlar. Verileri (adlı bir matris olarak saklanan test ortalama …

1
PCA'dan önce verileri normalleştirmemek daha iyi açıklanmış varyans oranı verir
Veri setimi normalleştirdim ve daha sonra açıklanmış küçük varyans oranları elde etmek için 3 bileşenli PCA çalıştırdım ([0.50, 0.1, 0.05]). Normalleştirmediğimde ancak veri setimi beyazlattığımda 3 bileşen PCA çalıştırdım, açıklanmış yüksek varyans oranlarına sahip oldum ([0.86, 0.06,0.01]). 3 bileşene kadar veri tutmak istediğim için, verileri normalleştirmemeli miyim? Anladığım kadarıyla her …
19 pca 

2
Aynı veri kümesinde PCA ve açımlayıcı Faktör Analizi: farklılıklar ve benzerlikler; faktör modeli vs PCA
Aynı veri kümesinde temel bileşen analizi (PCA) ve açımlayıcı faktör analizi (EFA) yapmanın herhangi bir mantıklı olup olmadığını bilmek istiyorum. Profesyonellerin açıkça tavsiye ettiğini duydum: Analizin amacının ne olduğunu anlayın ve veri analizi için PCA veya EFA'yı seçin; Bir analizi yaptıktan sonra diğer analizi yapmaya gerek yoktur. İkisi arasındaki motivasyon …

3
Sırt regresyonu ve PCA regresyonu arasındaki ilişki
Web'de bir yerde sırt regresyonu ( düzenlenmesi ile) ve PCA regresyonu arasında bir bağlantı okuduğumu hatırlıyorum : hiperparametre ile düzenli regresyon kullanırken , , regresyon, En küçük özdeğerli PC değişkeni.ℓ 2 λ λ → 0ℓ2ℓ2\ell_2ℓ2ℓ2\ell_2λλ\lambdaλ→0λ→0\lambda \to 0 Bu neden doğru? Bunun optimizasyon prosedürüyle ilgisi var mı? Saf bir şekilde, bunun …

1
Çekirdek PCA'nın standart PCA'ya göre avantajları nelerdir?
Bir veri matrisini ayrıştırmak için çekirdek SVD kullanan bir kağıda algoritma uygulamak istiyorum. Bu yüzden çekirdek yöntemleri ve çekirdek PCA vb. İle ilgili materyaller okuyorum. Ama özellikle matematiksel ayrıntılar söz konusu olduğunda benim için hala çok belirsiz ve birkaç sorum var. Neden çekirdek yöntemleri? Ya da çekirdek yöntemlerinin faydaları nelerdir? …
19 pca  svd  kernel-trick 

1
PCA biplotunda okları konumlandırma
JavaScript temel bileşen analizi (PCA) için bir biplot uygulamak için arıyorum. Benim sorum, veri matrisinin tekil vektör ayrışmasının (SVD) U,V,DU,V,DU,V,D çıkışındaki okların koordinatlarını nasıl belirleyebilirim ? İşte R tarafından üretilen bir örnek biplot: biplot(prcomp(iris[,1:4])) Ben o kadar aradık Biplot Vikipedi'ye ama çok kullanışlı değil. Veya düzeltin. Hangisi olduğundan emin değilim.
18 pca  svd  biplot 

1
Dışbükey karışımın kör kaynak ayrımı?
I olduğunu varsayalım , bağımsız kaynaklar X 1 , x 2 , . . . , X n ve ben m dışbükey karışımları gözlemliyoruz : Y 1nnnX1,X2,...,XnX1,X2,...,XnX_1, X_2, ..., X_nmmmY1...Ym=a11X1+a12X2+⋯+a1nXn=am1X1+am2X2+⋯+amnXnY1=a11X1+a12X2+⋯+a1nXn...Ym=am1X1+am2X2+⋯+amnXn\begin{align} Y_1 &= a_{11}X_1 + a_{12}X_2 + \cdots + a_{1n}X_n\\ ...&\\ Y_m &= a_{m1}X_1 + a_{m2}X_2 + \cdots + a_{mn}X_n \end{align} …
18 pca  ica 

1
Temel bileşen analizini kullanarak verileri beyazlatma nasıl yapılır?
Verilerimi XX\mathbf X varyanslar bir olacak ve kovaryanslar sıfır olacak şekilde dönüştürmek istiyorum (yani verileri beyazlatmak istiyorum). Ayrıca, araçlar sıfır olmalıdır. Oraya Z standardizasyonu ve PCA-dönüşümü yaparak ulaşacağımı biliyorum, ama hangi sırayla yapmalıyım? Kombine beyazlatma dönüşümünün biçiminde olması gerektiğini eklemeliyim x↦Wx+bx↦Wx+b\mathbf{x} \mapsto W\mathbf{x} + \mathbf{b}. PCA'ya benzer şekilde hem bu …

1
PCA'da tam olarak “temel bileşen” ne denir?
, tasarım matrisi X ile verinin projeksiyonunun varyansını maksimize eden vektör olduğunu varsayalım .uuuXXX Şimdi, aynı zamanda en büyük özdeğeri olan özvektör olan verinin (ilk) ana bileşeni olduğunu ifade eden materyaller gördüm .uuu Ancak, verilerin temel bileşeninin olduğunu da gördüm .XuXuX u Açıkçası, ve X u farklı şeylerdir. Burada bana …

2
PCA'daki düşük varyans bileşenleri, gerçekten sadece gürültü mi? Bunu test etmenin bir yolu var mı?
Bir PCA bileşeninin korunup korunmayacağına karar vermeye çalışıyorum. Örneğin burada veya burada tarif edilen ve karşılaştırılan özdeğer büyüklüğüne dayanan bir milyarlarca kriter vardır . Ancak benim başvurumda, küçük (est) öz değerin büyük (st) öz değere kıyasla küçük olacağını ve büyüklüğe dayalı kriterlerin hepsinin küçük (est) olanı reddedeceğini biliyorum. İstediğim bu …
18 pca 

2
PCA biplotundaki dört eksen nedir?
PCA analizi için bir biplot oluşturduğunuzda, x ekseni üzerinde ana bileşen PC1 puanları ve y ekseninde PC2 puanları olur. Ancak ekranın sağındaki ve üstündeki diğer iki eksen nedir?
18 r  pca  biplot 

3
PCA yapmadan önce neden başka bir standartlaştırma faktörüne değil de standart sapmaya bölünüyoruz?
Ham verileri neden standart sapmasına böldüğümüze dair aşağıdaki gerekçeyi (cs229 ders notlarından) okuyordum: açıklamanın ne dediğini anlasam da, standart sapmaya bölünmenin neden böyle bir hedefe ulaşacağı net değil. Herkesin aynı "ölçekte" olması gerektiğini söylüyor. Ancak, bu tamamen açık değil standart sapmaya bölünmenin neden bunu başardığı . Varyansla bölünmenin nesi yanlış? …

2
Ağırlıklı temel bileşenler analizi
Bazı araştırmalardan sonra, gözlem ağırlıklarının / ölçüm hatalarının temel bileşenler analizine dahil edilmesinde çok az şey buluyorum. Bulduğum şey, ağırlıkları (örneğin, burada ) dahil etmek için yinelemeli yaklaşımlara dayanma eğilimindedir . Sorum şu: Bu yaklaşım neden gerekli? Ağırlıklı kovaryans matrisinin özvektörlerini neden kullanamıyoruz?

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.