«pca» etiketlenmiş sorular

Temel bileşen analizi (PCA) doğrusal boyutsallık azaltma tekniğidir. Çok değişkenli bir veri kümesini olabildiğince fazla bilgi (varyans) koruyan daha küçük bir yapılandırılmış değişken grubuna indirger. Temel bileşenler olarak adlandırılan bu değişkenler, giriş değişkenlerinin doğrusal kombinasyonlarıdır.

1
PCA, LDA, CCA ve PLS
PCA, LDA, CCA ve PLS arasında nasıl bir ilişki var? Hepsi "spektral" ve lineer cebirsel ve çok iyi anlaşılmış görünüyorlar (çevrelerinde inşa edilmiş 50+ yıl teorisi). Çok farklı şeyler için kullanılırlar (boyutsallığın azaltılması için PCA, sınıflandırma için LDA, regresyon için PLS) ama yine de çok yakın bir ilişki içinde olduklarını …

2
PCA ve LDA'yı birleştirmek mantıklı mı?
Örneğin bir Bayes sınıflandırıcısı aracılığıyla denetimli bir istatistiksel sınıflandırma görevi için bir veri setine sahip olduğumu varsayalım. Bu veri seti 20 özellikten oluşuyor ve Temel Bileşen Analizi (PCA) ve / veya Doğrusal Ayrımcı Analizi (LDA) gibi boyutsallık azaltma teknikleri ile onu 2 özelliğe çıkarmak istiyorum. Her iki teknik de verileri …

5
En önemli ana bileşenler, bağımlı değişken üzerindeki tahmin gücünü nasıl koruyabilir (hatta daha iyi tahminlere yol açabilir)?
Diyelim ki bir regresyon . Neden üst seçerek ilkesi bileşenleri , model üzerindeki öngörü gücünü korumak mu ?Y∼XY∼XY \sim XkkkXXXYYY Ben boyutluluk-azaltma / görüş özellikli seçme noktasında, eğer gelen anlıyoruz kovaryans matrisinin öz vektörleri olduğundan üst ile özdeğerler, ardından üst olan ana bileşenler maksimum varyans ile. Böylece, özelliklerin sayısını azaltabilir …

3
Regresyonda sırt düzeneğinin yorumlanması
En küçük kareler bağlamında sırt cezası ile ilgili birkaç sorum var: βridge=(λID+X′X)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) İfade, X'in kovaryans matrisinin köşegen bir matrise doğru küçüldüğünü, yani (değişkenlerin işlemden önce standartlaştırıldığı varsayılarak) girdi değişkenleri arasındaki korelasyonun azaltılacağını önermektedir. Bu yorum doğru mu? 2) Eğer büzülme uygulamasıysa neden satırlarına formüle …

2
R prcomp sonuçları tahmin için nasıl kullanılır?
800 obs ile bir data.frame var. 40 değişkenden biriyim ve öngörümün sonuçlarını geliştirmek için Temel Bileşen Analizi'ni kullanmak istiyorum (şu ana kadar bazı 15 elle toplanan değişkenlerde Support Vector Machine ile en iyi şekilde çalışıyor). Bir prcomp 'ın tahminlerimi geliştirmeme yardımcı olabileceğini biliyorum, ancak prcomp fonksiyonunun sonuçlarını nasıl kullanacağımı bilmiyorum. …
25 r  pca 

3
LSA vs. PCA (belge kümeleme)
Belge kümelemede kullanılan çeşitli teknikleri araştırıyorum ve PCA (temel bileşen analizi) ve LSA (gizli anlamsal analiz) ile ilgili bazı şüphelerimi silmek istiyorum. İlk şey - aralarındaki farklar nelerdir? PCA'da SVD ayrışmasının kovaryans matrisine uygulandığını biliyorum, LSA'da ise terim matrisi. Başka bir şey var mı? İkincisi - belge kümeleme prosedüründeki rolü …

2
PCA çoklu bağlantı altında kararsız mı?
Bir regresyon durumunda, bir dizi yüksek korelasyonlu değişkeniniz varsa, bunun tahmin edilen katsayılardaki dengesizlikten dolayı genellikle "kötü" olduğunu biliyorum (varyans belirleyici sıfıra giderken sonsuzluğa gider). Sorum şu, “kötülüğün” bir PCA durumunda da devam edip etmeyeceği. Herhangi bir PC için katsayılar / yükler / ağırlıklar / özvektörler kovaryans matrisi tekil hale …

5
Varyansı düşük olan PC'lerin “kullanışlı” olduğu PCA örnekleri
Normalde temel bileşen analizinde (PCA), ilk birkaç bilgisayar kullanılır ve verilerdeki varyasyonun çoğunu açıklamadığı için düşük değişkenlikteki PC'ler düşer. Bununla birlikte, düşük değişkenlikteki PC'lerin yararlı olduğu (yani, veri bağlamında kullanım, sezgisel bir açıklamaya vb. Sahip olduğu) ve atılmaması gereken örnekler var mı?
24 pca 

2
“Doğrusal olmayan”, “doğrusal olmayan boyutsallığın azaltılması” nda nasıl anlaşılır?
Doğrusal boyutsallık azaltma yöntemleri (örneğin, PCA) ve doğrusal olmayanlar (örneğin, Isomap) arasındaki farkları anlamaya çalışıyorum. Doğrusal olmamanın bu bağlamda ne anlama geldiğini tam olarak anlayamıyorum. Ben okunan Vikipedi o Karşılaştırma yapılırsa, aynı veri setini iki boyuta indirmek için PCA (doğrusal bir boyutsallık azaltma algoritması) kullanılırsa, elde edilen değerler o kadar …

3
Seyrek PCA, PCA'dan tam olarak ne kadar iyidir?
PCA hakkında birkaç ders önce sınıfta öğrendim ve bu büyüleyici konsept hakkında daha fazla şey kazarak, seyrek PCA hakkında bilgi sahibi oldum. Sormak istedim, yanlış değilsem, PCA'nın seyrek olduğu şey budur: PCA'da, değişkenli veri noktalarınız varsa, PCA'yı uygulamadan önce her veri noktasını boyutlu alanda temsil edebilirsiniz . PCA'yı uyguladıktan sonra, …

1
Bağımlı gözlemler için PCA'nın özellikleri
PCA'yı genellikle davaların kabul edildiğinin varsayıldığı veriler için boyutsallık azaltma tekniği olarak kullanıyoruz. Soru: Bağımlı, kimliği olmayan veriler için PCA uygulamasındaki tipik nüanslar nelerdir? PCA'nın kimlik bilgileri için geçerli olan hoş / faydalı özellikleri tehlikeye atılır (veya tamamen kaybolur)? Örneğin, veriler, çok değişkenli bir zaman serisi olabilir; bu durumda, otokorelasyon …

2
PCA ve asimptotik PCA arasındaki fark nedir?
1986 ve 1988'deki iki makalede , Connor ve Korajczyk, varlık getirilerini modellemeye yönelik bir yaklaşım önerdi. Bu zaman serileri, genellikle zaman dönemi gözlemlerinden daha fazla varlığa sahip olduğundan, varlık getirilerinin kesitsel kovaryanslarında bir PCA gerçekleştirmeyi teklif etmişlerdir. Bu yönteme Asimptotik Temel Bileşen Analizi diyorlar (izleyiciler PCA'nın asimptotik özelliklerini hemen düşündüğü …
23 pca  econometrics 

4
PCA için eksik değerlerin tahmini
prcomp()Fonksiyonu, R'de bir PCA (temel bileşen analizi) gerçekleştirmek için kullandım. Ancak, bu fonksiyonda na.actionparametrenin çalışmadığı bir hata var . Stackoverflow konusunda yardım istedim ; iki kullanıcı, NAdeğerlerle baş etmek için iki farklı yöntem sundu . Bununla birlikte, her iki çözümde de sorun, bir NAdeğer olduğunda, bu sıranın PCA analizinde düşmemesi …

1
Neden sadece orada
PCA'da, sayısı sayısı numune sayısından büyük (hatta eşit) olduğunda , neden en fazla sıfır olmayan özvektörlere sahip olacaksınız ? Başka bir deyişle, kovaryans matrisinin boyutları arasındaki sırası .N N - 1 d ≥ N N - 1dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Örnek: Örnekleriniz boyutunda vectorized resimlerdir , ancak yalnızca .N = 10d=640×480=307200d=640×480=307200d = …

2
Neden verilerin PCA'sı SVD aracılığıyla?
Bu soru ana bileşenleri hesaplamanın etkili bir yoludur. Doğrusal PCA ile ilgili birçok metin, casewise verilerinin tekil değer ayrışımını kullanarak savunur . Veri varsa kendisine, ve değişkenler (kendi değiştirmek istiyor sütun temel bileşenler), yaptığımız SVD: X = U S V ' (. Kare özdeğerler kökleri), tekil değerler ana çapını işgal …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.