«pca» etiketlenmiş sorular

Temel bileşen analizi (PCA) doğrusal boyutsallık azaltma tekniğidir. Çok değişkenli bir veri kümesini olabildiğince fazla bilgi (varyans) koruyan daha küçük bir yapılandırılmış değişken grubuna indirger. Temel bileşenler olarak adlandırılan bu değişkenler, giriş değişkenlerinin doğrusal kombinasyonlarıdır.

2
Temel bileşen analizinde biplotların yorumlanması
Bu güzel derse rastladım: R Kullanarak İstatistiksel Analiz El Kitabı. Bölüm 13. Temel Bileşen Analizi: PCA'nın R dilinde nasıl yapıldığına dair Olimpik Heptatlon . Şekil 13.3'ün yorumunu anlamıyorum: Bu yüzden ilk özvektöre karşı ikinci özvektöre komplo yapıyorum. Bu ne anlama geliyor? Birinci özvektöre karşılık gelen özdeğerin, veri kümesindeki değişimin% 60'ını …

1
Merkezleme PCA'da nasıl bir fark yaratır (SVD ve öz ayrıştırma için)?
PCA için verilerinizi merkezleme (veya anlamdan çıkarma) ne fark eder? Matematiği kolaylaştırdığını ya da ilk bilgisayarın değişkenlerin araçlarına hâkim olmasını engellediğini duydum, ancak henüz kavramı tam olarak kavrayamadığımı hissediyorum. Örneğin, buradaki en üstteki cevap Verileri merkezlemek regresyon ve PCA'daki engellemeden nasıl kurtulur? Merkezlenmenin ilk PCA'yı nokta bulutunun ana ekseni yerine …
30 r  pca  svd  eigenvalues  centering 

5
Makine öğrenmesinde hiyerarşik / iç içe geçmiş verilerle nasıl baş edilir
Sorunumu bir örnekle açıklayacağım. Bazı nitelikler verilen bir bireyin gelirini tahmin etmek istediğinizi varsayalım: {Yaş, Cinsiyet, Ülke, Bölge, Şehir}. Bunun gibi bir eğitim veri setine sahipsiniz train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
Faktör analizinde en iyi faktör ekstraksiyon yöntemleri
SPSS birkaç faktör çıkarma yöntemi sunar: Temel bileşenler (hiç bir faktör analizi olmayan) Ağırlıksız en küçük kareler Genelleştirilmiş en küçük kareler Maksimum Olabilirlik Ana Eksen Alfa faktoringi Görüntü faktoring İlk metodu gözardı ederek, faktör analizi değil (fakat temel bileşen analizi, PCA), bu yöntemlerden hangisi "en iyisi"? Farklı yöntemlerin göreceli avantajları …


3
PCA ile ortogonal regresyon (toplam en küçük kareler) nasıl yapılır?
Her zaman lm()R'de üzerindeki lineer regresyonunu yapmak için kullanırım . Bu işlev , bir katsayısı döndürürx β y = β x .yyyxxxββ\betay=βx.y=βx.y = \beta x. Bugün toplam en küçük kareleri öğrendim ve bu princomp()işlevi (temel bileşen analizi, PCA) gerçekleştirmek için kullanılabiliyor. Benim için iyi olmalı (daha doğru). princomp()Gibi bazı testler …

4
Andrew Ng neden PCA yapmak için koordine matrisinin EIG'sini değil SVD'yi kullanmayı tercih ediyor?
Andrew Ng's Coursera dersinden ve diğer materyallerden PCA okuyorum. Stanford NLP dersinde cs224n'nin ilk ödevinde ve Andrew Ng'un ders videosunda kovaryans matrisinin özvektör ayrışması yerine tekil değer ayrıştırması yapıyorlar ve Ng, SVD'nin özerk kompozisyondan sayısal olarak daha kararlı olduğunu söylüyor. Anladığım kadarıyla PCA için, (m,n)boyutun kovaryans matrisinden değil, boyut veri …

1
Ordinal veya ikili veri için Faktör analizi veya PCA var mı?
Temel bileşen analizi (PCA), keşfedici faktör analizi (EFA) ve doğrulayıcı faktör analizi (CFA) yaptım, sürekli olarak likert ölçeğine sahip verileri (5 seviyeli yanıtlar: yok, biraz, bazıları, ..) değişken. Sonra, Lavaan kullanarak, değişkenleri kategorik olarak tanımlayan CFA'yı tekrarladım. Veriler doğada sıradan olduğunda ne tür analizlerin uygun olacağını ve PCA ve EFA …

1
Serbestlik dereceleri tam sayı olmayan bir sayı olabilir mi?
GAM kullandığımda, artık DF (kodun son satırı) olduğunu gösteriyor. Bu ne anlama geliyor? GAM örneğinin ötesine geçmek, Genel olarak, serbestlik derecelerinin sayısı tam sayı olmayan bir sayı olabilir mi?26,626,626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

4
R kullanarak boyutsal küçültme için PCA vs t-SNE'nin nesi yanlış?
336x256 kayan nokta sayıları (336 bakteri genomu (sütunlar) x 256 normalleştirilmiş tetranükleotit frekansı (satır), örneğin her sütun 1'e kadar ekler) matrisine sahibim. Analizimi prensip bileşen analizi kullanarak yaptığımda iyi sonuçlar alıyorum. Öncelikle, veri üzerindeki kmean kümelerini hesaplarım, daha sonra bir PCA çalıştırırım ve veri noktalarını başlangıçtaki 2 km'lik kümelemeye dayanarak …
27 r  pca  tsne 

5
PCA'nın bir sınıflandırıcının sonuçlarını kötüleştirmesine ne sebep olabilir?
En iyi özellik kombinasyonlarını bulmak için ileriye doğru seçim yaptığım yüzlerce özellik ile birlikte çapraz doğrulama yaptığım bir sınıflandırıcı var. Bunu, PCA ile aynı deneyleri çalıştırmayla karşılaştırıyorum, burada potansiyel özellikleri alıyorum, SVD uyguladım, orijinal sinyalleri yeni koordinat alanına dönüştürüyorum ve ileri seçim en iyi özelliklerini kullanıyorum .kkk Sezgim, PCA'nın, sonuçları …



1
PCA ile elde edilen düşük dereceli yaklaşım matrisi ile rekonstrüksiyon hatasının hangi normları minimize edilmiştir?
Matris bir PCA (veya SVD) yaklaşımı göz önüne alındığında ile bir matris , bunu biliyoruz en düşük rütbe tahmindir .XXXX^X^\hat XX^X^\hat XXXX Bu indüklenen normuna∥ ⋅ ∥2∥⋅∥2\parallel \cdot \parallel_2 (yani en büyük özdeğer normu) veya Frobenius normuna göre mi?∥ ⋅ ∥F∥⋅∥F\parallel \cdot \parallel_F

7
Bir matrisin kolonları arasında doğrusal bağımlılık testi
Belirleyicisi sıfır olan bir güvenlik getirisi korelasyon matrisine sahibim. (Örnek korelasyon matrisi ve karşılık gelen kovaryans matrisi teorik olarak pozitif olarak kesin olmalıdır, çünkü bu biraz şaşırtıcıdır.) Hipotezim, en az bir güvenliğin doğrusal olarak diğer menkul kıymetlere bağlı olduğudur. R'de, her bir sütunu sıralı olarak doğrusal bağımlılık için bir matris …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.