«pca» etiketlenmiş sorular

Temel bileşen analizi (PCA) doğrusal boyutsallık azaltma tekniğidir. Çok değişkenli bir veri kümesini olabildiğince fazla bilgi (varyans) koruyan daha küçük bir yapılandırılmış değişken grubuna indirger. Temel bileşenler olarak adlandırılan bu değişkenler, giriş değişkenlerinin doğrusal kombinasyonlarıdır.


2
Regresyon amacıyla öngörücülerin boyutsallığını azaltmanın avantajı nedir?
Boyut küçültme regresyonu (DRR) veya denetimli boyut küçültme (SDR) tekniklerinin geleneksel regresyon tekniklerine (boyut küçültme olmadan) uygulamaları veya avantajları nelerdir? Bu teknik sınıfı, regresyon problemi için özellik setinin düşük boyutlu bir temsilini bulur. Bu tekniklerin örnekleri arasında Dilimli Ters Regresyon, Temel Hessian Yönleri, Dilimli Ortalama Varyans Tahmini, Çekirdek Dilimli Ters …

3
Verilerle pratik PCA eğitimi
İnternette PCA eğitimi için arama yapmak binlerce sonuç (hatta videolar) verir. Eğiticilerin çoğu çok iyi. Ancak, PCA'nın gösterim için kullanabileceğim bazı veri kümeleri kullanılarak açıklandığı pratik bir örnek bulamıyorum. PCA analizi öncesi ve sonrası (100s boyutu ile veri satırları 10000s değil) çizmek kolay bazı küçük veri seti sağlayan bir öğretici …

7
Ülke türlerini tanımlamak için veri azaltma tekniği
Giriş niteliğinde bir ekonomik coğrafya dersi veriyorum. Öğrencilerimin çağdaş dünya ekonomisinde bulunan ülke türlerini daha iyi anlamasına ve veri azaltma tekniklerinin takdir edilmesine yardımcı olmak için, farklı türden ülkelerin tipolojisini oluşturan bir ödev inşa etmek istiyorum (ör. katma değerli mfg uzun ömür beklentisi; yüksek gelirli doğal kaynak ihracatçısı orta yüksek …

1
R'deki princomp () nesnesi için abstract () ve loadings () arasındaki fark nedir?
Örnek kod: (pc.cr <- princomp(USArrests)) summary(pc.cr) loadings(pc.cr) ## note that blank entries are small but not zero Her birinden farklı çıktılar alıyorum ve farkın ne olduğunu anladığımdan emin değilim. İşte çıktı: > summary(pc.cr) Importance of components: Comp.1 Comp.2 Comp.3 Comp.4 Standard deviation 82.8908472 14.06956001 6.424204055 2.4578367034 Proportion of Variance 0.9655342 …
11 r  pca 

1
R'de PCA biplotunda temel değişkenlerin okları
Soruyu yazılıma özgü hale getirme riski altındadır ve her yerde ve kendine özgü ifadelerinin mazereti ile, biplot()R'deki fonksiyon hakkında ve daha spesifik olarak, varsayılan, üst üste binmiş kırmızı okların hesaplanması ve çizilmesi hakkında sormak istiyorum. temeldeki değişkenlere. [Yorumlardan bazılarını anlamak için, başlangıçta gönderilen arazilerin az ilgi duyduğu bir sclaing sorunu …
11 r  pca  biplot 

1
R / mgcv: te () ve ti () tensör ürünleri neden farklı yüzeyler üretir?
mgcvİçin paket Rtensör ürün etkileşimleri uydurma için iki işlevi vardır: te()ve ti(). İkisi arasındaki temel işbölümünü anlıyorum (doğrusal olmayan bir etkileşime uymak ve bu etkileşimi ana etkilere ve etkileşime ayırmak). Anlamadığım şey neden te(x1, x2)ve ti(x1) + ti(x2) + ti(x1, x2)(biraz) farklı sonuçlar üretebilir. MWE (uyarlanmıştır ?ti): require(mgcv) test1 <- …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
Boyutları azaltmak için t-SNE için parametreler nasıl belirlenir?
Kelime düğünlerinde çok yeniyim. Öğrenmenin ardından belgelerin nasıl göründüğünü görselleştirmek istiyorum. T-SNE'nin bunu yapmak için bir yaklaşım olduğunu okudum. Gömme boyutu olarak 250 boyutta 100K dokümanım var. Ayrıca birkaç paket mevcuttur. Bununla birlikte, t-SNE için, daha fazla öğrenmeye devam etmem gereken kaç yineleme veya alfa değeri veya esneklik değeri bilmiyorum. …

3
İlk temel bileşen sınıfları ayırmaz, ancak diğer bilgisayarlar yapar; bu nasıl mümkün olabilir?
PCA'yı, örnekleri iki sınıfa ayırmak için denetimli makine öğreniminde kullanılacak daha küçük değişkenler kümesi, yani temel bileşenler olarak çalıştırmak için çalıştırdım. PCA'dan sonra PC1 verilerdeki varyansın% 31'ini, PC2% 17'sini, PC3% 10'unu, PC4% 8'ini, PC5% 7'sini ve PC6% 6'sını oluşturur. Ancak, iki sınıf arasındaki PC'ler arasındaki ortalama farklılıklara baktığımda, şaşırtıcı bir …

4
Python'da Temel Bileşen Analizi ve Regresyon
SAS'ta yaptığım bazı çalışmaları Python'da nasıl çoğaltılacağını anlamaya çalışıyorum. Çoklu doğrusallığın bir sorun olduğu bu veri kümesini kullanarak Python'da temel bileşen analizi yapmak istiyorum. Scikit-learn ve istatistik modellerine baktım, ancak çıktılarını nasıl alacağımı ve SAS ile aynı sonuç yapısına nasıl dönüştüğünü bilmiyorum. Birincisi, SAS, kullandığınızda korelasyon matrisinde PCA yapıyor gibi …

2
PCA neden projeksiyonun toplam varyansını en üst düzeye çıkarıyor?
Christopher Bishop, Desen Tanıma ve Makine Öğrenimi kitabında , veriler daha önce seçilen bileşenlere dik bir alana yansıtıldıktan sonra, ardışık her ana bileşenin projeksiyonun varyansını maksimuma çıkardığına dair bir kanıt yazar . Diğerleri de benzer kanıtlar gösteriyor. Bununla birlikte, bu sadece her ardışık bileşenin varyansı en üst düzeye çıkarmak için …

3
Doğrusal bir diskriminant analizindeki (LDA) ölçeklendirme değerleri, doğrusal diskriminantlar üzerindeki açıklayıcı değişkenleri çizmek için kullanılabilir mi?
Temel bileşen analizi ile elde edilen değerlerin bir biplotunu kullanarak, her bir temel bileşeni oluşturan açıklayıcı değişkenleri incelemek mümkündür. Bu Doğrusal Ayırım Analiziyle de mümkün müdür? Sağlanan örneklerde veriler "Edgar Anderson'ın İris Verileri" dir ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). İşte iris verileri : id SLength SWidth PLength PWidth species 1 5.1 3.5 …

3
PCA, ICA ve Laplacian eigenmaps
Soru Laplacian Eigenmaps yöntemiyle çok ilgileniyorum. Şu anda tıbbi veri setlerimde boyut küçültme yapmak için kullanıyorum. Ancak, yöntemi kullanarak bir sorunla karşılaştım. Örneğin, bazı verilerim (spektrum sinyalleri) var ve bazı PC'leri (veya IC'leri) almak için PCA (veya ICA) kullanabilirim. Sorun, LE kullanarak orijinal verilerin benzer boyutta küçültülmüş bileşenlerinin nasıl elde …
11 pca  ica 

3
Sınıflandırmada ne zaman LDA yerine PCA kullanırsınız?
İlke Bileşen Analizi ve Çoklu Diskriminant Analizi (Doğrusal Diskriminant Analizi) arasındaki fark üzerine bu makaleyi okuyorum ve neden MDA / LDA yerine PCA kullanacağınızı anlamaya çalışıyorum. Açıklama aşağıdaki gibi özetlenmiştir: kabaca PCA'da verinin en fazla yayıldığı maksimum varyanslı eksenleri bulmaya çalışıyoruz (bir sınıf içinde, PCA tüm veri setini bir sınıf …

1
PCA özvektörleri olmayan vektörlerin “özdeğerleri” (açıklanan varyans yüzdeleri) nasıl elde edilir?
PCA tarafından sağlanan koordinat alanında değil, biraz farklı (döndürülmüş) vektörlere karşı bir veri kümesinin varyans yüzdesini nasıl elde edebileceğimi anlamak istiyorum. set.seed(1234) xx <- rnorm(1000) yy <- xx * 0.5 + rnorm(1000, sd = 0.6) vecs <- cbind(xx, yy) plot(vecs, xlim = c(-4, 4), ylim = c(-4, 4)) vv <- …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.