«svd» etiketlenmiş sorular

Bir matrisin tekil değer ayrışımı (SVD) bir tarafından verildi bir=USV nerede U ve V dikey matrislerdir ve S çapraz bir matristir.

3
Çok değişkenli normal dağılımdan örneklerin çizilmesi için Cholesky ve özdöpozisyon
Bir örnek çizmek istiyorum . Wikipedia bir Cholesky veya Eigendecomposition kullanmanızı önerir , yani veya x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Ve böylece örnek şu şekilde çizilebilir: veya burada x = D1vx=D1v \mathbf{x} = \mathbf{D}_1 \mathbf{v} v∼N(0,I)x = Q Λ--√vx=SΛv \mathbf{x} = \mathbf{Q}\sqrt{\mathbf{\Lambda}} \mathbf{v} …

2
Boyutsal azaltmayı ne zaman kümeleme ile birleştiriyoruz?
Belge düzeyinde kümeleme yapmaya çalışıyorum. Doküman terim frekans matrisini oluşturdum ve bu yüksek boyutlu vektörleri k-araçları kullanarak kümelemeye çalışıyorum. Doğrudan kümeleme yerine, U, S, Vt matrislerini elde etmek için LSA'nın (Latent Semantic Analysis) tekil vektör ayrışmasını uygulamak, dağlama grafiğini kullanarak uygun bir eşik seçti ve indirgenmiş matrislere kümeleme uygulandı (özellikle …


1
GSVD tüm doğrusal çok değişkenli teknikleri uyguluyor mu?
Hervé Abdi'nin genel SVD hakkındaki makalesine rastladım . Yazar şunları söyledi: Genelleştirilmiş SVD (GSVD) dikdörtgen bir matrisi ayrıştırır ve matrisin satırlarına ve sütunlarına uygulanan kısıtlamaları dikkate alır. GSVD, belirli bir matrisin daha düşük dereceli bir matrisle ağırlıklı genelleştirilmiş en küçük karesel tahminini verir ve bu nedenle, yeterli kısıtlama seçimi ile …


3
Kesilmiş SVD'yi hesaplamak için hangi hızlı algoritmalar var?
Burada muhtemelen konu dışı, ancak zaten birkaç ( bir , iki ) ilgili soru var. Literatürde (veya Kesik SVD Algoritmaları için bir google araması) dolaşmak, kesilmiş SVD'leri çeşitli şekillerde kullanan birçok kağıt ortaya çıkarır ve bunu hesaplamak için hızlı algoritmalar olduğunu iddia eder (sinir bozucu, genellikle alıntı yapmadan), ancak hiç …

2
Rastgele bir matris için SVD hiçbir şeyi açıklamamalı mı? Neyi yanlış yapıyorum?
Tamamen rastgele verilerden oluşan bir 2-D matris oluşturursam, PCA ve SVD bileşenlerinin temelde hiçbir şeyi açıklamamasını beklerdim. Bunun yerine, ilk SVD sütunu verilerin% 75'ini açıklıyor gibi görünüyor. Bu nasıl olabilir? Neyi yanlış yapıyorum? İşte konu: İşte R kodu: set.seed(1) rm(list=ls()) m <- matrix(runif(10000,min=0,max=25), nrow=100,ncol=100) svd1 <- svd(m, LINPACK=T) par(mfrow=c(1,4)) image(t(m)[,nrow(m):1]) …
13 r  pca  svd 

1
Neden bir kovaryans matrisinin öz ve svd ayrışmaları seyrek verilere dayalı olarak farklı sonuçlar verir?
Seyrek / gappy veri kümesine dayalı bir kovaryans matrisi ayrıştırmaya çalışıyorum. Lambda (açıklanan varyans) toplamının, hesaplandığı gibi svd, giderek gappy verilerle güçlendirildiğini fark ediyorum . Boşluklar olmadan svdve eigenaynı sonuçları ver. Bu bir eigenayrışma ile gerçekleşmez . Kullanmaya yönelmiştim svdçünkü lambda değerleri her zaman pozitif, ama bu eğilim endişe vericidir. …
12 r  svd  eigenvalues 

3
Eksik değerleri olan bir matrisin SVD'si
Bir Netflix tarzı öneri matrisim olduğunu ve belirli bir kullanıcı için gelecekteki potansiyel film derecelendirmelerini öngören bir model oluşturmak istediğimizi varsayalım. Simon Funk yaklaşımını kullanarak, tam matris ile madde-kullanıcı-kullanıcı-matrisi arasındaki Frobenius normunu bir L2 düzenleyici terim ile en aza indirmek için stokastik gradyan inişi kullanılır. Pratikte, insanlar, hesaplama matrisinin eksik …

1
PCA ve TruncatedSVD'nin scikit-learn uygulamaları arasındaki fark
Temel Bileşen Analizi ile Tekil Değer Ayrışması arasındaki ilişkiyi cebirsel / tam düzeyde anlıyorum. Benim sorum scikit-learn uygulaması hakkında . Dokümantasyonda: " [TruncatedSVD] PCA'ya çok benzer, ancak her iki yaklaşım arasındaki cebirsel farkı yansıtan örnek vektörler üzerinde bir kovaryans matrisi yerine doğrudan çalışır. " Ancak, daha sonra şöyle der: " …
12 pca  scikit-learn  svd  scipy 

1
Python'da bir scree arsa nasıl çizilir? [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. Geçen yıl kapalı . Bir matris üzerinde tekil vektör ayrışımı kullanıyorum ve U, S ve Vt matrislerini elde ediyorum. Bu noktada, elde edilecek boyutların sayısı …

1
Olumsuzluk, işbirlikçi filtreleme / tavsiye sistemleri için neden önemlidir?
Matris çarpanlarına bağlı olduğunu gördüğüm tüm modern tavsiye sistemlerinde, kullanıcı-film matrisi üzerinde negatif olmayan bir matris çarpanına ayrılmıştır. Olumsuzluğun yorumlanabilirlik için ve / veya seyrek faktörler istiyorsanız neden önemli olduğunu anlayabiliyorum. Ancak sadece netflix ödül yarışmasında olduğu gibi sadece tahmin performansını önemsiyorsanız, neden olumsuzluk kısıtlamasını dayatmalısınız? Faktorizasyonunuzda da negatif değerlere …

1
SVD'den önce bir kelime eşgüdüm matrisine noktasal karşılıklı bilgi uygulamanın avantajları ve dezavantajları nelerdir?
Kelime düğünleri oluşturmanın bir yolu aşağıdaki gibidir ( ayna ): Bir şirket alın, örneğin "Uçmayı seviyorum. NLP'yi seviyorum. Derin öğrenmeyi seviyorum." Bundan cooccurrence matrisi kelimesini oluşturun: SVD gerçekleştirin ve U'nun ilk sütunlarını koruyun.XXXkkk alt her satırı , satırın temsil ettiği kelimenin gömme sözcüğü olacaktır (satır 1 = "I", satır 2 …

3
K-kosinüs benzerlikleri anlamına gelir Öklid mesafesi (LSA)
Daha düşük boyutlu uzayda bir belge topluluğunu temsil etmek için gizli anlamsal analiz kullanıyorum. Bu belgeleri k-araçlarını kullanarak iki gruba ayırmak istiyorum. Birkaç yıl önce, bunu Python'un gensim'ini kullanarak ve kendi k-ortalama algoritmamı yazdım. Öklid mesafesini kullanarak küme sentroidlerini belirledim, ancak daha sonra her bir belgeyi sentroidin kosinüs benzerliğine dayanarak …

1
R doğrusal regresyon kategorik değişkeni “gizli” değer
Bu sadece birkaç kez karşılaştığım bir örnektir, bu yüzden örnek verilerim yok. R'de doğrusal regresyon modeli çalıştırmak: a.lm = lm(Y ~ x1 + x2) x1sürekli bir değişkendir. x2kategoriktir ve üç değeri vardır, örneğin "Düşük", "Orta" ve "Yüksek". Bununla birlikte, R tarafından verilen çıktı aşağıdaki gibi olacaktır: summary(a.lm) Estimate Std. Error …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.