«pca» etiketlenmiş sorular

Temel bileşen analizi (PCA) doğrusal boyutsallık azaltma tekniğidir. Çok değişkenli bir veri kümesini olabildiğince fazla bilgi (varyans) koruyan daha küçük bir yapılandırılmış değişken grubuna indirger. Temel bileşenler olarak adlandırılan bu değişkenler, giriş değişkenlerinin doğrusal kombinasyonlarıdır.

1
Daniel Wilks (2011) neden temel bileşen gerilemesinin “önyargılı olacağını” söylüyor?
In Atmosferik Bilimlerde İstatistiksel Yöntemler öngörüleri arasında çok güçlü intercorrelations (3. Baskı, sayfa 559-560) varsa, Daniel Wilks notları çoklu lineer regresyon problemlerine yol açabilir: Çoklu doğrusal regresyonda ortaya çıkabilecek bir patoloji, güçlü karşılıklı korelasyonlara sahip bir dizi öngörücü değişkenin, kararsız bir regresyon ilişkisinin hesaplanmasına neden olabilmesidir. (...) Daha sonra temel …
13 regression  pca  bias 

1
Denetimli boyut azalması
15K etiketli örneklerden (10 gruptan) oluşan bir veri setim var. Boyutların azaltılmasını etiketlerin bilgisini dikkate alan 2 boyuta uygulamak istiyorum. PCA gibi "standart" denetimsiz boyutsallık azaltma tekniklerini kullandığımda, saçılma grafiğinin bilinen etiketlerle ilgisi yok gibi görünüyor. Aradığım şeyin bir adı var mı? Bazı çözüm referanslarını okumak istiyorum.

1
PCA'nın daima koordinat eksenlerini döndürdüğü göz önüne alındığında, "döndürülmüş" ve "döndürülmemiş" ana bileşenler nelerdir?
Anladığım kadarıyla, ana bileşenler, maksimum varyans yönleriyle hizalamak için koordinat eksenlerini döndürerek elde edilir. Yine de, "döndürülmemiş ana bileşenler" hakkında okumaya devam ediyorum ve istatistik yazılımım (SAS) bana döndürülmemiş olanların yanı sıra varimax döndürülmüş ana bileşenleri de veriyor. Burada kafam karıştı: temel bileşenleri hesapladığımızda, eksenler zaten döndürülmüş durumda; Peki neden …


1
PCA yüklemeleri nasıl yorumlanır?
PCA hakkında okurken, aşağıdaki açıklama ile karşılaştım: Her veri noktasının tek bir öğrencinin matematik testi, fizik testi, okuduğunu anlama testi ve kelime testindeki puanlarını temsil ettiği bir veri setimiz olduğunu varsayalım. Verilerdeki değişkenliğin% 90'ını yakalayan ve yüklerini yorumlayan ilk iki temel bileşeni buluyoruz. İlk temel bileşenin genel akademik yeteneği, ikincisinin …
13 pca 

3
Lindsay Smith'in eğitimini kullanarak R'de PCA'nın adım adım uygulanması
Lindsay I Smith tarafından mükemmel bir PCA öğretici aracılığıyla R'de çalışıyorum ve son aşamada takılıp kalıyorum . Aşağıdaki R betiği, orijinal verilerin (bu durumda tekil) Ana Bileşen'den yeniden yapılandırıldığı (PC1) ekseni boyunca düz bir çizgi grafiği vermesi gereken aşamaya (s.19'da) götürür (veriler sadece 2 boyutu vardır, ikincisi kasıtlı olarak düşürülür). …
13 r  pca 

2
Grupları ayıran PCA bileşenlerini seçme
Sıklıkla PCA (yüzbinlerce değişken ve düzinelerce veya yüzlerce örnek içeren omics verileri) kullanarak çok değişkenli verilerimi teşhis etmek için kullanılırdım. Veriler genellikle bazı grupları tanımlayan birkaç kategorik bağımsız değişkenle yapılan deneylerden gelir ve ilgilenen gruplar arasında bir ayrım gösterenleri bulabilmek için genellikle birkaç bileşenden geçmem gerekir. Bu tür ayrımcı bileşenleri …

3
R'de varimax döndürülmüş ana bileşenler nasıl hesaplanır?
PCA'yı 25 değişken üzerinde çalıştırdım ve kullanarak ilk 7 bilgisayarı seçtim prcomp. prc <- prcomp(pollutions, center=T, scale=T, retx=T) Daha sonra bu bileşenler üzerinde varimax rotasyonu yaptım. varimax7 <- varimax(prc$rotation[,1:7]) Ve şimdi varimax PCA döndürülmüş verileri döndürmek istiyorum (varimax nesnesinin bir parçası olmadığı için - sadece yükleme matrisi ve döndürme matrisi). …
13 r  pca  factor-rotation 

2
Rastgele bir matris için SVD hiçbir şeyi açıklamamalı mı? Neyi yanlış yapıyorum?
Tamamen rastgele verilerden oluşan bir 2-D matris oluşturursam, PCA ve SVD bileşenlerinin temelde hiçbir şeyi açıklamamasını beklerdim. Bunun yerine, ilk SVD sütunu verilerin% 75'ini açıklıyor gibi görünüyor. Bu nasıl olabilir? Neyi yanlış yapıyorum? İşte konu: İşte R kodu: set.seed(1) rm(list=ls()) m <- matrix(runif(10000,min=0,max=25), nrow=100,ncol=100) svd1 <- svd(m, LINPACK=T) par(mfrow=c(1,4)) image(t(m)[,nrow(m):1]) …
13 r  pca  svd 

3
PCA bileşenleri gerçekten varyans yüzdesini temsil ediyor mu? Toplamı% 100'den fazla olabilir mi?
O'Reilly'nin "Hackerlar İçin Makine Öğrenmesi" her temel bileşenin varyansın bir yüzdesini temsil ettiğini söylüyor. Aşağıdaki sayfanın ilgili kısmını alıntıladım (bölüm 8, s.207). Başka bir uzmanla görüştüklerinde, bunun yüzde olduğunu kabul ettiler. Bununla birlikte, 24 bileşen% 133.2095'tir. Nasıl olabilir? Kendimizi PCA kullanabileceğimize ikna ettikten sonra, bunu R'de nasıl yapabiliriz? Yine, bu …
13 r  pca 


5
Farklı uzunluktaki zaman serileri için SVD boyutsallık azalması
Tekil Değer Ayrışmasını boyutsallık azaltma tekniği olarak kullanıyorum. NBoyut vektörleri göz önüne alındığında D, fikir, ilişkisiz boyutların dönüştürülmüş bir uzayındaki özellikleri temsil etmek, bu da bu alanın özvektörlerindeki verilerin bilgilerinin çoğunu azalan bir önem sırasına yoğunlaştırmaktır. Şimdi bu prosedürü zaman serisi verilerine uygulamaya çalışıyorum. Sorun şu ki, tüm diziler aynı …

3
PCA optimizasyonu dışbükey midir?
Temel Bileşen Analizi (PCA) objektif fonksiyonu L2 norm yöntemi hatasını minimize edilir (bölüm 2.12 bakınız burada başka görüş projeksiyonda varyansı maksimize etmeye çalışıyor Biz de burada mükemmel bir yazı var.:. PCA nesnel işlevi nedir ? ). Benim sorum şu ki PCA optimizasyonu dışbükey mi? ( Burada bazı tartışmalar buldum , …

1
GBM kullanarak GBM paketi ve Caret
Model kullanarak ayar yapıyordum caret, ancak gbmpaketi kullanarak modeli yeniden çalıştırıyorum . Anladığım kadarıyla caretpaketin kullandığı gbmve çıktı aynı olmalı. Bununla birlikte, sadece hızlı bir test çalıştırması data(iris), değerlendirme metriği olarak RMSE ve R ^ 2 kullanılarak modelde yaklaşık% 5 tutarsızlık gösterir. Kısmi bağımlılık grafiklerini kullanmak için en iyi model …

1
Sürekli ve ikili değişkenlerin bir karışımına dayanan PCA ve bileşen puanları
Karışık tip değişkenlerden (sürekli ve ikili) oluşan bir veri kümesine PCA uygulamak istiyorum. Prosedürü göstermek için, aşağıdaki R'ye minimal tekrarlanabilir bir örnek yapıştırıyorum. # Generate synthetic dataset set.seed(12345) n <- 100 x1 <- rnorm(n) x2 <- runif(n, -2, 2) x3 <- x1 + x2 + rnorm(n) x4 <- rbinom(n, 1, …
13 r  pca 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.