«svd» etiketlenmiş sorular

Bir matrisin tekil değer ayrışımı (SVD) bir tarafından verildi bir=USV nerede U ve V dikey matrislerdir ve S çapraz bir matristir.

3
LSA vs. PCA (belge kümeleme)
Belge kümelemede kullanılan çeşitli teknikleri araştırıyorum ve PCA (temel bileşen analizi) ve LSA (gizli anlamsal analiz) ile ilgili bazı şüphelerimi silmek istiyorum. İlk şey - aralarındaki farklar nelerdir? PCA'da SVD ayrışmasının kovaryans matrisine uygulandığını biliyorum, LSA'da ise terim matrisi. Başka bir şey var mı? İkincisi - belge kümeleme prosedüründeki rolü …

2
Neden verilerin PCA'sı SVD aracılığıyla?
Bu soru ana bileşenleri hesaplamanın etkili bir yoludur. Doğrusal PCA ile ilgili birçok metin, casewise verilerinin tekil değer ayrışımını kullanarak savunur . Veri varsa kendisine, ve değişkenler (kendi değiştirmek istiyor sütun temel bileşenler), yaptığımız SVD: X = U S V ' (. Kare özdeğerler kökleri), tekil değerler ana çapını işgal …

3
SVD'yi ortak bir filtreleme sorununa uyguladığınızda ne olur? İkisi arasındaki fark nedir?
İşbirlikçi filtrelemede, doldurulmamış değerlere sahibiz. Bir kullanıcının bir film izlemediğini varsayalım ve oraya bir 'na' koymamız gerektiğini varsayalım. Eğer bu matrisin SVD'sini alacaksam, o zaman bir sayı koymalıyım - 0 diyelim. Şimdi matrisi çarparsam, benzer kullanıcıları bulmak için bir yöntemim var (hangi kullanıcıların birbirine daha yakın olduğunu bularak) küçültülmüş boyutsal …

3
PCA, boyutluluk örneklem sayısından büyük olduğunda
Bir sınıflandırıcıya geçmem gereken 14000 veri noktası (boyut) içeren 10 kişi için 10 sinyal / kişi (yani 100 örnek) bulunan bir senaryoya rastladım. Bu verinin boyutunu azaltmak istiyorum ve PCA bunu yapmanın yolu gibi görünüyor. Ancak, PCA'nın örneklerini yalnızca örnek sayısının boyut sayısından büyük olduğu yerlerde bulabildim. SVD kullanarak PC'leri …

3
Rastgele verilerin SVD sonuçlarındaki garip korelasyonlar; matematiksel bir açıklaması var mı yoksa LAPACK hatası mı?
Hem Matlab hem de R'de çoğaltılabileceğim rastgele verilerin SVD sonucunda çok garip bir davranış gözlemliyorum. LAPACK kütüphanesinde sayısal bir sorun gibi görünüyor; bu mu? Sıfır ortalama ve kimlik kovaryansına sahip boyutlu Gaussian'dan n=1000n=1000n=1000 örnek çiziyorum : . Onları veri matrisi . (İsteğe bağlı olarak merkezleyebilir ya da değil, aşağıdakileri etkilemez.) …


2
PCA'ya göre SVD'nin herhangi bir avantajı var mı?
PCA ve SVD'nin matematiksel olarak nasıl hesaplanacağını biliyorum ve her ikisinin de Doğrusal En Küçük Kareler regresyonuna uygulanabileceğini biliyorum. SVD'nin matematiksel olarak ana avantajı, kare olmayan matrislere uygulanabileceği gibi görünüyor. Her ikisi de matrisinin ayrışmasına odaklanır . Bahsedilen SVD'nin avantajı dışında, PCD'ye göre SVD kullanılarak sağlanan ek avantajlar veya öngörüler …
20 pca  least-squares  svd 

6
Gauss olmayan verilerin PCA'sı
PCA hakkında birkaç hızlı sorum var: PCA , veri kümesinin Gauss olduğunu varsayıyor mu? Doğası gereği doğrusal olmayan verilere bir PCA uyguladığımda ne olur? Bir veri kümesi verildiğinde, işlem ilk önce normalleştirmek, varyansı 1'e ayarlamak, bir SVD almak, sıralamayı azaltmak ve son olarak veri kümesini yeni düşük sıralı alanla eşlemektir. …
20 pca  svd 

1
Çekirdek PCA'nın standart PCA'ya göre avantajları nelerdir?
Bir veri matrisini ayrıştırmak için çekirdek SVD kullanan bir kağıda algoritma uygulamak istiyorum. Bu yüzden çekirdek yöntemleri ve çekirdek PCA vb. İle ilgili materyaller okuyorum. Ama özellikle matematiksel ayrıntılar söz konusu olduğunda benim için hala çok belirsiz ve birkaç sorum var. Neden çekirdek yöntemleri? Ya da çekirdek yöntemlerinin faydaları nelerdir? …
19 pca  svd  kernel-trick 

1
PCA biplotunda okları konumlandırma
JavaScript temel bileşen analizi (PCA) için bir biplot uygulamak için arıyorum. Benim sorum, veri matrisinin tekil vektör ayrışmasının (SVD) U,V,DU,V,DU,V,D çıkışındaki okların koordinatlarını nasıl belirleyebilirim ? İşte R tarafından üretilen bir örnek biplot: biplot(prcomp(iris[,1:4])) Ben o kadar aradık Biplot Vikipedi'ye ama çok kullanışlı değil. Veya düzeltin. Hangisi olduğundan emin değilim.
18 pca  svd  biplot 

5
Matris ayrışımı ile ilgili temel makaleler
Kısa bir süre önce Skillicorn'un matris ayrışmaları hakkındaki kitabını okudum ve bir lisans izleyicisini hedef aldığı için biraz hayal kırıklığına uğradım. Matris ayrışmaları hakkında (kendim ve başkaları için) temel makalelerden kısa bir kaynakça (anketler, ancak atılım kağıtları) derlemek istiyorum. Aklımda olan şey, SVD / PCA (ve sağlam / seyrek varyantlar) …

1
Matrise yeni bir satır ekledikten sonra SVD ayrışmasını güncelleme
SVD ayrışması A = U S V with olan m × n boyutunda yoğun bir matrisine sahip olduğumu varsayalım .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.In Rben SVD hesaplayabilirsiniz şöyle: svd(A). A'ya yeni satır eklenirse , SVD'yi sıfırdan yeniden hesaplamaksızın eski SVD ayrışmasını eskisine göre (yani U , S ve V kullanarak ) …

1
Tekil değer ayrışmasını (SVD) hesaplamak için etkili algoritmalar nelerdir?
Wikipedia makale temel bileşen analizi devletler bu X T X matrisini oluşturmak zorunda kalmadan SVD'sini hesaplamak için verimli algoritmalar mevcuttur , bu nedenle SVD'nin hesaplanması artık sadece bir avuç bileşen gerekli olmadıkça bir veri matrisinden temel bileşenler analizini hesaplamanın standart yoludur.XXXXTXXTXX^TX Birisi bana makalenin bahsettiği etkili algoritmaların neler olduğunu söyleyebilir …
17 pca  algorithms  svd  numerics 

4
SVD / PCA için “normalleştirme” değişkenleri
NNN ölçülebilir değişkenimiz olduğunu varsayalım , bir dizi ölçüm yapıyoruz ve sonra noktaları için en yüksek varyansın eksenlerini bulmak için sonuçlarda tekil değer ayrışması yapmak istiyoruz. içerisinde boyutlu alan. ( Not: araçlarının zaten çıkarıldığını varsayalım , bu yüzden tüm için )(a1,a2,…,aN)(a1,a2,…,aN)(a_1, a_2, \ldots, a_N)M>NM>NM > NMMMNNNaiaia_i⟨ai⟩=0⟨ai⟩=0\langle a_i \rangle = 0iii …

1
Çok değişkenli Gauss verilerinin PCA bileşenleri istatistiksel olarak bağımsız mı?
Verilerimiz normalde çok değişkenli ise PCA bileşenleri (temel bileşen analizinde) istatistiksel olarak bağımsız mıdır? Eğer öyleyse, bu nasıl kanıtlanabilir / kanıtlanabilir? Soruyorum çünkü en iyi cevabın belirttiği bu yayını gördüm : PCA açık bir Gaussian varsayımı yapmaz. Verilerde açıklanan varyansı en üst düzeye çıkaran özvektörleri bulur. Temel bileşenlerin dikliği, verilerdeki …
16 pca  independence  svd 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.