«svd» etiketlenmiş sorular

Bir matrisin tekil değer ayrışımı (SVD) bir tarafından verildi bir=USV nerede U ve V dikey matrislerdir ve S çapraz bir matristir.

3
SVD ve PCA arasındaki ilişki. PCA gerçekleştirmek için SVD nasıl kullanılır?
Temel bileşen analizi (PCA) genellikle kovaryans matrisinin bir öz-ayrışmasıyla açıklanır. Bununla birlikte, veri matrisinin tekil değer ayrıştırması (SVD) yoluyla da gerçekleştirilebilir . O nasıl çalışır? Bu iki yaklaşım arasındaki bağlantı nedir? SVD ile PCA arasındaki ilişki nedir?XX\mathbf X Başka bir deyişle, boyutsallık azaltma gerçekleştirmek için veri matrisinin SVD'si nasıl kullanılır?

1
PCA nasıl tersine çevrilir ve orijinal değişkenler çeşitli temel bileşenlerden nasıl yeniden oluşturulur?
Boyutsallığın azaltılması için ana bileşen analizi (PCA) kullanılabilir. Böyle bir boyutluluk azaltma gerçekleştirildikten sonra, orijinal değişkenler / özellikler az sayıda temel bileşenden yaklaşık olarak nasıl yeniden yapılandırılabilir? Alternatif olarak, birkaç temel bileşen veriden nasıl çıkarılabilir veya atılabilir? Başka bir deyişle, PCA nasıl tersine çevrilir? PCA'nın tekil değer ayrışması (SVD) ile …

3
Bir örnek: ikili sonuç için glmnet kullanarak LASSO regresyonu
Ben kullanımı ile serpmek başlıyorum glmnetile LASSO Regresyon ilgi benim sonuç dikotom olduğunu. Aşağıda küçük bir sahte veri çerçevesi oluşturdum: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
SVD'nin ardındaki sezgi nedir?
Tekil değer ayrışımı (SVD) hakkında okudum. Neredeyse tüm ders kitaplarında, verilen spesifikasyon ile matrisi üç matrise dönüştürdüğü belirtilmektedir. Fakat matrisi böylesi bir biçimde bölmenin ardındaki sezgi nedir? PCA ve boyutsallığı azaltmaya yönelik diğer algoritmalar, algoritmanın güzel görselleştirme özelliğine sahip olduğu anlamında sezgiseldir ancak SVD'de durum böyle değildir.

1
Biplot ile İlişkili PCA ve Yazışma Analizi
Biplot, genellikle temel bileşen analizi (ve ilgili tekniklerin) sonuçlarını görüntülemek için kullanılır . Bileşen yüklerini ve bileşen puanlarını aynı anda gösteren ikili veya üst üste bir dağılım grafiğidir . Onun bir benim yorumun kalkan bir cevap verdiğini @amoeba bugün tarafından bilgi verildi soruya Biplot koordinatları nasıl üretildiği / ölçekli sorar; …

2
Kısmi en küçük kareler regresyonunun arkasındaki teori
SVD ve PCA'yı anlayan biri için kısmi en küçük kareler regresyonunun (çevrimiçi olarak erişilebilir) arkasındaki teorinin iyi bir şekilde açıklanmasını tavsiye edebilir miyim? Çevrimiçi olarak birçok kaynağa baktım ve doğru titizlik ve erişilebilirlik kombinasyonuna sahip hiçbir şey bulamadım. İçine baktım İstatistiksel Öğrenme Elements üzerine sorulan bir soru üzerine yorumunda öne …

1
Büyük, seyrek bir matris üzerinde boyutsallık azaltma (SVD veya PCA)
/ edit: Şimdi daha fazla takip irlba :: prcomp_irlba kullanabilirsiniz / edit: kendi gönderimde takip etmek. irlbaŞimdi, temel bileşenleri hesaplamak için kullanmanıza izin veren "merkez" ve "ölçek" argümanlarına sahiptir, örneğin: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Büyük bir seyrek var Matrixben öğrenme algoritması bir makinede kullanmak istiyorum …

1
Merkezleme PCA'da nasıl bir fark yaratır (SVD ve öz ayrıştırma için)?
PCA için verilerinizi merkezleme (veya anlamdan çıkarma) ne fark eder? Matematiği kolaylaştırdığını ya da ilk bilgisayarın değişkenlerin araçlarına hâkim olmasını engellediğini duydum, ancak henüz kavramı tam olarak kavrayamadığımı hissediyorum. Örneğin, buradaki en üstteki cevap Verileri merkezlemek regresyon ve PCA'daki engellemeden nasıl kurtulur? Merkezlenmenin ilk PCA'yı nokta bulutunun ana ekseni yerine …
30 r  pca  svd  eigenvalues  centering 

5
SVD'yi ortak filtrelemede nasıl kullanırım?
SVD'nin işbirlikçi filtrelemede nasıl kullanıldığına biraz karıştı. Sosyal bir grafiğim olduğunu ve kenarlardan bitişik bir matris oluşturduğumu ve ardından bir SVD (benim düzenlileştirme, öğrenme oranları, sparite optimizasyonları vb. Unutalım) unutacağımı varsayalım, önerilerimi geliştirmek için bu SVD'yi nasıl kullanırım? Sosyal grafiğimin instagrama karşılık geldiğini ve yalnızca sosyal grafiğe dayanarak hizmette kullanıcı …

1
Korelasyonlu matrisin SVD'si ilave olmalı, fakat görünmüyor
Sadece , Gen İfade Verilerinden İlişkili Biclusters Bulma adlı aşağıdaki makalede yapılan bir talebi kopyalamaya çalışıyorum : Önerme 4. Eğer . o zaman biz var:XIJ=RICTJXIJ=RICJTX_{IJ}=R_{I}C^{T}_{J} ben. Eğer ek model ile mükemmel bir bicluster ise, sütunlar üzerinde korelasyon ile mükemmel bir bicluster; ii. Eğer ilave model ile mükemmel bir bicluster ise, …

4
Andrew Ng neden PCA yapmak için koordine matrisinin EIG'sini değil SVD'yi kullanmayı tercih ediyor?
Andrew Ng's Coursera dersinden ve diğer materyallerden PCA okuyorum. Stanford NLP dersinde cs224n'nin ilk ödevinde ve Andrew Ng'un ders videosunda kovaryans matrisinin özvektör ayrışması yerine tekil değer ayrıştırması yapıyorlar ve Ng, SVD'nin özerk kompozisyondan sayısal olarak daha kararlı olduğunu söylüyor. Anladığım kadarıyla PCA için, (m,n)boyutun kovaryans matrisinden değil, boyut veri …

2
Python'un bilim-kurgu LDA'sı neden doğru çalışmıyor ve LDA'yı SVD üzerinden nasıl hesaplıyor?
scikit-learnMakine öğrenim kütüphanesinden (Python) Doğrusal Ayrımcılık Analizi'ni (LDA) boyutsallığın azaltılması için kullanıyordum ve sonuçları biraz merak ediyordum. Şimdi, LDA'nın ne scikit-learnyaptığını merak ediyorum , böylece sonuçlar R'de yapılan bir manuel yaklaşımdan veya LDA'dan farklı görünecek şekilde farklı görünebilir. Biri bana burada bazı bilgiler verebilirse harika olur. Temel olarak en çok …

1
PCA ile elde edilen düşük dereceli yaklaşım matrisi ile rekonstrüksiyon hatasının hangi normları minimize edilmiştir?
Matris bir PCA (veya SVD) yaklaşımı göz önüne alındığında ile bir matris , bunu biliyoruz en düşük rütbe tahmindir .XXXX^X^\hat XX^X^\hat XXXX Bu indüklenen normuna∥ ⋅ ∥2∥⋅∥2\parallel \cdot \parallel_2 (yani en büyük özdeğer normu) veya Frobenius normuna göre mi?∥ ⋅ ∥F∥⋅∥F\parallel \cdot \parallel_F

2
Büyük seyrek bir matrisin SVD'si nasıl hesaplanır?
Verilerin son derece seyrek olduğu çok büyük bir pozitif matrisin (65M x 3.4M) tekil değer ayrışmasını (SVD) hesaplamanın en iyi yolu nedir? Matrisin% 0.1'inden daha azı sıfır değildir. Bir yola ihtiyacım var: belleğe sığacak (çevrimiçi yöntemlerin olduğunu biliyorum) Makul bir sürede hesaplanacak: 3,4 gün Yeterince doğru olacağım ancak doğruluk benim …
26 svd  numerics 

7
Bir matrisin kolonları arasında doğrusal bağımlılık testi
Belirleyicisi sıfır olan bir güvenlik getirisi korelasyon matrisine sahibim. (Örnek korelasyon matrisi ve karşılık gelen kovaryans matrisi teorik olarak pozitif olarak kesin olmalıdır, çünkü bu biraz şaşırtıcıdır.) Hipotezim, en az bir güvenliğin doğrusal olarak diğer menkul kıymetlere bağlı olduğudur. R'de, her bir sütunu sıralı olarak doğrusal bağımlılık için bir matris …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.