«pca» etiketlenmiş sorular

Temel bileşen analizi (PCA) doğrusal boyutsallık azaltma tekniğidir. Çok değişkenli bir veri kümesini olabildiğince fazla bilgi (varyans) koruyan daha küçük bir yapılandırılmış değişken grubuna indirger. Temel bileşenler olarak adlandırılan bu değişkenler, giriş değişkenlerinin doğrusal kombinasyonlarıdır.

1
Bir makalede “Temel bileşenlerin sayısını belirlemek için Monte Carlo simülasyonu” ifadesi yer almaktadır; o nasıl çalışır?
10304 voksel sayısı (piksel olarak düşünün) ve 236 saat noktası sayısı olan 10304x236 boyutunda bir matris üzerinde PCA gerçekleştirdiğim MRI verileri üzerinde bir Matlab analizi yapıyorum. PCA bana 236 Özdeğer ve ilgili katsayıları veriyor. Her şey yolunda. Bununla birlikte, kaç bileşenin tutulacağına karar verme zamanı geldiğinde, çoğalttığım kağıt aşağıdakileri söylüyor …

1
Ana bileşen puanları neden ilişkilendirilmiyor?
Varsayalım , ortalama merkezli verilerin bir matrisidir. Matris olduğu , var belirgin öz ve özvektörler , ... ortogonal olan.birA\mathbf AS = cov ( A )S=cov(A)\mathbf S=\text{cov}(\mathbf A)m × mm×mm\times mmmms1s1\mathbf s_1s2s2\mathbf s_2smsm\mathbf s_m -inci ana bileşen (bazı insanlar "puanlarının" olarak adlandırmak) olan vektör . Başka bir deyişle, sütunlarının doğrusal bir …

2
Boole özelliklerinin küçük bir örnek kümesi için PCA ve spektral kümeleme arasındaki fark
50 örneklik bir veri setim var. Her örnek 11 (muhtemelen ilişkili) Boole özelliğinden oluşur. Bu örnekleri 2B çizimde nasıl görselleştirebilir ve 50 örnek arasında küme / gruplama olup olmadığını incelemek isterim. Aşağıdaki iki yaklaşımı denedim: (a) PCA'yı 50x11 matrisinde çalıştırın ve ilk iki temel bileşeni seçin. Verileri 2D çizim üzerine …


4
R'de Kesikli Zaman Olay Geçmişi (Hayatta Kalma) Modeli
R'de ayrık zamanlı bir model yerleştirmeye çalışıyorum, ancak nasıl yapılacağından emin değilim. Bağımlı değişkeni farklı satırlarda, her bir zaman gözlemi için bir tane düzenleyebileceğinizi ve glmbir logit veya cloglog bağlantısıyla işlevi kullanabileceğinizi okudum. Bu anlamda, üç sütun vardır: ID, Event(her zaman atıl 1 ya da 0) ve Time Elapsedek olarak, …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

3
PCA üzerinden Mahalanobis mesafesi
Benim bir n×pn×pn\times p matris, nerede ppp gen sayısı ve nnnhasta sayısıdır. Bu tür verilerle çalışan herkes şunu bilir:ppp her zamankinden daha büyük nnn. Özellik seçimini kullanarak aldımppp ancak daha makul bir sayıya ppp hala daha büyük nnn. Hastaların genetik profillerine dayanarak benzerliklerini hesaplamak istiyorum; Öklid mesafesini kullanabilirim, ancak Mahalanobis …

2
Bir çokgenin kovaryans matrisi nasıl bulunur?
Bir koordinat kümesi tarafından tanımlanan bir çokgeniniz olduğunu ve kütle merkezinin olduğunu . Çokgene, çokgen bir sınır ile düzgün bir dağılım olarak davranabilirsiniz. (x1,y1)...(xn,yn)(x1,y1)...(xn,yn)(x_1,y_1)...(x_n,y_n)(0,0)(0,0)(0,0) Bir çokgenin kovaryans matrisini bulan bir yöntemden sonrayım . Bir çokgenin kovaryans matrisinin alanın ikinci anıyla yakından ilişkili olduğundan şüpheleniyorum , ancak eşdeğer olup olmadıklarından emin …

1
Çocuklar bir GWAS veri setinin PCA projeksiyonunda ebeveynlerini bir araya getirmeyi nasıl başarırlar?
10.000 boyutlu bir alanda 20 rastgele nokta alın. N-( 0 , 1 )N-(0,1)\mathcal N(0,1). Onları 10 çifte ("çiftler") ayırın ve veri kümesine her çiftin ("bir çocuk") ortalamasını ekleyin. Sonra elde edilen 30 noktada PCA yapın ve PC1'e PC2'yi çizin. Dikkat çekici bir şey olur: her "aile" birbirine yakın noktalardan oluşan …

3
PCA her ikisi de n, p büyük olduğunda çok yavaş: Alternatifler?
Sorun Ayarı 2D olarak görselleştirmeye çalıştığım yüksek boyutlu (4096) veri noktalarına (görüntüler) sahibim. Bu amaçla, Karpathy'nin aşağıdaki örnek koduna benzer bir şekilde t-sne kullanıyorum . Scikit-öğrenme dokümantasyon ilk verilerin boyutunu düşürmek için PCA kullanılmasını önerir: Özellik sayısının çok yüksek olması durumunda boyut sayısını makul bir miktara (örneğin 50) düşürmek için …

2
Sıcaklığa karşı dondurma satışının bu PCA grafiğini anlamak
Dondurma Satışlarına karşı kukla bir sıcaklık verileri alıyorum ve 2 kategoriyi (tamamen kukla) ayırt etmek için K Means (n ​​clusters = 2) kullanarak kategorilere ayırdım. Şimdi bu veriler üzerinde Temel Bileşen Analizi yapıyorum ve amacım gördüklerimi anlamak. PCA'nın amacının boyutsallığı azaltmak (bu durumda değil) ve elementlerin varyansını göstermek olduğunu biliyorum. …

2
Ölçeklenebilir boyut küçültme
Sabit özelliklerin sayısı göz önüne alındığında, Barnes-Hut t-SNE'nin karmaşıklığıO ( n günlüğün )O(nlog⁡n)O(n\log n), rastgele projeksiyonlar ve PCA, çok büyük veri setleri için onları "uygun fiyatlı" yapan karmaşıklığına sahiptir .O ( n )O(n)O(n) Öte yandan, güvenerek yöntemleri boyutlu ölçekleme bir olması karmaşıklığı.O (n2)O(n2)O(n^2) Karmaşıklığı daha düşük olan başka boyut küçültme …

1
PCA grafiğinin kama benzeri şekli neyi gösterir?
Kendi içinde metin sınıflandırma için autoencoders kağıt Hinton ve Salakhutdinov (yakından PCA ile ilgilidir) 2 boyutlu LSA tarafından üretilen arsa gösterdi: . PCA'yı tamamen farklı hafifçe yüksek boyutlu verilere uygulayarak benzer görünümlü bir çizim elde ettim: (bu durumda gerçekten herhangi bir iç yapı olup olmadığını bilmek istedim). PCA'ya rastgele veri …

3
PCA bileşenlerini döndürerek her bileşendeki varyansı eşitleyin
Veri kümesinde PCA gerçekleştirerek ve son birkaç PC'yi atarak veri kümesinin boyutsallığını ve gürültüsünü azaltmaya çalışıyorum. Bundan sonra, kalan bilgisayarlarda bazı makine öğrenme algoritmaları kullanmak istiyorum ve bu nedenle algoritmaların daha iyi çalışması için PC'lerin varyansını eşitleyerek verileri normalleştirmek istiyorum. Basit bir yol, birim değerlere olan varyansı normalleştirmektir. Ancak, ilk …

3
PCA sonuçlarında örüntü olmadığını nasıl anlarım?
19 değişkenli 1000'den fazla örnek veri setim var. Amacım diğer 18 değişkene (ikili ve sürekli) dayalı bir ikili değişken tahmin etmektir. Tahmin değişkenlerinin 6'sının ikili yanıtla ilişkili olduğundan eminim, ancak veri kümesini daha fazla analiz etmek ve eksik olabileceğim diğer ilişkilendirmeleri veya yapıları aramak istiyorum. Bunu yapmak için PCA ve …
9 pca 


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.