«pca» etiketlenmiş sorular

Temel bileşen analizi (PCA) doğrusal boyutsallık azaltma tekniğidir. Çok değişkenli bir veri kümesini olabildiğince fazla bilgi (varyans) koruyan daha küçük bir yapılandırılmış değişken grubuna indirger. Temel bileşenler olarak adlandırılan bu değişkenler, giriş değişkenlerinin doğrusal kombinasyonlarıdır.

1
Biplot ile İlişkili PCA ve Yazışma Analizi
Biplot, genellikle temel bileşen analizi (ve ilgili tekniklerin) sonuçlarını görüntülemek için kullanılır . Bileşen yüklerini ve bileşen puanlarını aynı anda gösteren ikili veya üst üste bir dağılım grafiğidir . Onun bir benim yorumun kalkan bir cevap verdiğini @amoeba bugün tarafından bilgi verildi soruya Biplot koordinatları nasıl üretildiği / ölçekli sorar; …

2
Faktör Analizi, PCA varyansını açıklarken kovaryansı nasıl açıklar?
Piskopos'un "Örüntü Tanıma ve Makine Öğrenmesi" kitabından alıntı, bölüm 12.2.4 "Faktör analizi": Vurgulanan kısma göre, faktör analizi W matrisindeki değişkenler arasındaki kovaryansı yakalarWWW . NASIL merak ediyorum ? İşte nasıl anladım. Ki xxx görülmektedir ppp , boyutlu değişken WWW faktörü yükleme matrisidir ve zzz faktör skoru vektörüdür. Sonra değerine sahibiz …

3
PCA veya FA'deki puanların veya yüklerin işaretinin bir anlamı var mı? İşareti tersine çevirebilir miyim?
İki farklı fonksiyon ( prcompve princomp) kullanarak R ile temel bileşen analizi (PCA) yaptım ve PCA puanlarının işaret olarak farklı olduğunu gözlemledim. Nasıl olabilir? Bunu düşün: set.seed(999) prcomp(data.frame(1:10,rnorm(10)))$x PC1 PC2 [1,] -4.508620 -0.2567655 [2,] -3.373772 -1.1369417 [3,] -2.679669 1.0903445 [4,] -1.615837 0.7108631 [5,] -0.548879 0.3093389 [6,] 0.481756 0.1639112 [7,] 1.656178 …
37 r  pca  factor-analysis 

3
PCA'nın Doğrusallığı
PCA doğrusal bir prosedür olarak kabul edilir, ancak: P C A (X) ≠ P Cı A ( x1) + P C A ( X2) + … + P C A ( Xn) ,PCA(X)≠PCA(X1)+PCA(X2)+…+PCA(Xn),\mathrm{PCA}(X)\neq \mathrm{PCA}(X_1)+\mathrm{PCA}(X_2)+\ldots+\mathrm{PCA}(X_n), burada . Bu veriler matrisler üzerinde PCAs ile elde özvektörler yani x i veri matrisleri toplamına …
35 pca  linear 

3
PCA ve tren / test bölümü
Birden fazla ikili etiket setine sahip olduğum bir veri setim var. Her bir etiket kümesi için, bir sınıflandırıcı hazırlıyorum, çapraz onaylama yaparak değerlendiriyorum. Temel bileşen analizi (PCA) kullanarak boyutsallığı azaltmak istiyorum. Sorum şu: PCA'nın tüm veri kümesi için bir kez yapılması ve daha sonra yukarıda açıklandığı gibi çapraz doğrulama için …

3
Neden t-SNE kümeleme veya sınıflandırma için bir boyutluluk azaltma tekniği olarak kullanılmıyor?
Yakın zamanda yapılan bir atamada, boyutları 64'ten (8 x 8 görüntüler) 2'ye düşürmek için MNIST rakamlarında PCA kullanmamız söylendi. Daha sonra rakamları bir Gauss Karışım Modeli kullanarak kümelemek zorunda kaldık. Yalnızca 2 ana bileşen kullanan PCA, farklı kümeler vermez ve sonuç olarak, model yararlı gruplar oluşturamaz. Bununla birlikte, 2 bileşenli …

1
Faktör Analizi / PCA'da rotasyon yapmanın arkasındaki sezgisel sebep nedir ve nasıl uygun rotasyon seçilmeli?
Sorularım Faktör analizinde (veya PCA'daki bileşenler) faktörlerin dönmesini yapmanın ardındaki sezgisel sebep nedir? Anladığım kadarıyla eğer değişkenler üst bileşenlere (veya faktörlere) neredeyse eşit olarak yüklenirse, o zaman açıkça bileşenleri ayırt etmek zordur. Dolayısıyla bu durumda bileşenlerin daha iyi bir şekilde ayırt edilebilmesi için rotasyon kullanılabilir. Bu doğru mu? Rotasyon yapmanın …

1
PCA, bir k-aracı kümeleme analizine nasıl yardımcı olur?
Amaç : Bir kentin yerleşim alanlarını, konut birim yoğunluğu, nüfus yoğunluğu, yeşil alan, konut fiyatı, okul sayısı, okul / sağlık merkezleri / günlük bakım merkezleri gibi sosyal-ekonomik özelliklerine göre gruplandırmak istiyorum. Yerleşim bölgelerinin kaç farklı gruba bölünebileceğini ve bunların benzersiz özelliklerinin neler olduğunu anlamak istiyorum. Bu bilgi şehir planlamasını kolaylaştırabilir. …

1
PCA amaç fonksiyonu: varyansı maksimize etmek ve hatayı minimize etmek arasındaki bağlantı nedir?
PCA algoritması, korelasyon matrisi açısından formüle edilebilir ( verilerinin XXXzaten normalize olduğunu ve yalnızca ilk PC'ye yansımayı düşünüyoruz). Amaç işlevi şöyle yazılabilir: maxw(Xw)T(Xw)s.t.wTw=1.maxw(Xw)T(Xw)s.t.wTw=1. \max_w (Xw)^T(Xw)\; \: \text{s.t.} \: \:w^Tw = 1. Bu iyi ve biz bunu çözmek için Lagrangian çarpanlarını kullanıyoruz. maxw[(Xw)T(Xw)−λwTw],maxw[(Xw)T(Xw)−λwTw], \max_w [(Xw)^T(Xw) - \lambda w^Tw], hangi eşdeğer maxw(Xw)T(Xw)wTw,maxw(Xw)T(Xw)wTw, …
32 pca  optimization 

3
Korelasyonda veya kovaryansta PCA: Korelasyonda PCA hiç mantıklı geliyor mu? [kapalı]
Temel bileşen analizinde (PCA), bileşenleri bulmak için kovaryans matrisi veya korelasyon matrisi seçilebilir (ilgili özvektörlerinden). Bunlar farklı sonuçlar verir (PC yüklemeleri ve puanları), çünkü her iki matris arasındaki özvektörler eşit değildir. Benim anladığım şey, bunun bir ham veri vektörünün ve onun standart hale getirilmesinin ortogonal bir dönüşümle ilişkilendirilemeyeceği gerçeğinden kaynaklanmaktadır …

3
PCA'yı aşmak için Tensorflow'ta bir otomatik kodlayıcı oluşturma
Sinir Ağları ile Verilerin Boyutlarını Azaltan Hinton ve Salakhutdinov , Science 2006 , derin bir otomatik kodlayıcı kullanarak doğrusal olmayan bir PCA önerdi. Birkaç defa Tensorflowlu bir PCA otomatik kodlayıcı oluşturmaya ve eğitmeye çalıştım, ancak doğrusal PCA'dan daha iyi bir sonuç elde edemedim. Bir otomatik kodlayıcıyı nasıl verimli bir şekilde …

1
Büyük, seyrek bir matris üzerinde boyutsallık azaltma (SVD veya PCA)
/ edit: Şimdi daha fazla takip irlba :: prcomp_irlba kullanabilirsiniz / edit: kendi gönderimde takip etmek. irlbaŞimdi, temel bileşenleri hesaplamak için kullanmanıza izin veren "merkez" ve "ölçek" argümanlarına sahiptir, örneğin: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Büyük bir seyrek var Matrixben öğrenme algoritması bir makinede kullanmak istiyorum …

5
Birçok bağımsız değişkenden önemli prediktörlerin tespit edilmesi
Üst üste binmeyen iki popülasyonun veri setinde (hastalar ve sağlıklı, toplam n=60n=60n=60 ) bulmak istiyorum ( üzerinden bağımsız değişkenler) sürekli bir bağımlı değişken için önemli yordayıcılar. Prediktörler arasındaki korelasyon mevcuttur. Öngörülerden herhangi birinin "gerçekte" bağımlı değişkenle ilişkili olup olmadığını öğrenmekle ilgileniyorum (bağımlı değişkeni mümkün olduğu kadar önceden tahmin etmek yerine). …

3
Bir milyon görselleştirme, PCA baskısı
Temel Bileşen Analizi'nin çıktısını yalnızca özet tablolardan daha fazla içgörü kazandıracak şekillerde görselleştirmek mümkün mü? Gözlem sayısı büyük olduğunda bunu yapmak mümkün mü, örneğin ~ 1e4? Ve bunu R [diğer ortamlar kabul edilir] 'de yapmak mümkün müdür?

4
R PCA ile boyutsallık azaltma nasıl yapılır
Büyük bir veri kümem var ve boyutsallık azaltma yapmak istiyorum. Şimdi her yerde bunun için PCA kullanabileceğimi okudum. Bununla birlikte, PCA'yı hesapladıktan / uyguladıktan sonra ne yapacağımı hala anlamadım. R'de bu komutla kolayca yapılabilir princomp. Fakat PCA'yı hesapladıktan sonra ne yapmalı? İlk ana bileşeni kullanmak istediğime karar verirsem , veri …
30 r  pca 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.