«eigenvalues» etiketlenmiş sorular

Özdeğerlerin veya özvektörlerin hesaplanması veya yorumlanmasını içeren sorular için.

28
Temel bileşen analizi, özvektörler ve özdeğerlerin anlaşılması
Günümüz örüntü tanıma sınıfında profesörüm PCA, özvektörler ve özdeğerler hakkında konuştu. Bunun matematiğini anladım. Özdeğerleri vs. bulmam istenirse, bir makine gibi doğru yaparım. Ama anlamadım . Bunun amacını anlamadım. Hissetmedim. Aşağıdaki alıntıya şiddetle inanıyorum: Büyükannene anlatamazsan, gerçekten bir şey anlamıyorsun. -- Albert Einstein Bu kavramları bir meslekten olmayan ya da …

3
Korelasyon matrisinin neden pozitif yarı kesin olması gerekir ve pozitif yarı kesin olmanın anlamı nedir?
Korelasyon veya kovaryans matrislerinin pozitif yarı kesin özelliklerinin anlamını araştırıyordum. Hakkında herhangi bir bilgi arıyorum Pozitif yarı kesinliğin tanımı; Önemli özellikleri, pratik uygulamalar; Olumsuz belirleyici olmanın sonucu, çok değişkenli analiz veya simülasyon sonuçları vb.

1
Eğer rastgele simetrik bir matris üretersem, pozitif kesin olma şansı nedir?
Bazı dışbükey optimizasyonlar denemede tuhaf bir soru var. Soru: Diyelim ki rasgele (standart normal dağılım diyelim) bir simetrik matrisi ürettiğini (örneğin, üst üçgen matriksi oluşturdum ve simetrik olduğundan emin olmak için alt yarısını doldurun), pozitif bir kesin olma şansı nedir? matris? Olasılığı hesaplamak için yine de var mı?N×NN×NN \times N

1
Merkezleme PCA'da nasıl bir fark yaratır (SVD ve öz ayrıştırma için)?
PCA için verilerinizi merkezleme (veya anlamdan çıkarma) ne fark eder? Matematiği kolaylaştırdığını ya da ilk bilgisayarın değişkenlerin araçlarına hâkim olmasını engellediğini duydum, ancak henüz kavramı tam olarak kavrayamadığımı hissediyorum. Örneğin, buradaki en üstteki cevap Verileri merkezlemek regresyon ve PCA'daki engellemeden nasıl kurtulur? Merkezlenmenin ilk PCA'yı nokta bulutunun ana ekseni yerine …
30 r  pca  svd  eigenvalues  centering 

4
Andrew Ng neden PCA yapmak için koordine matrisinin EIG'sini değil SVD'yi kullanmayı tercih ediyor?
Andrew Ng's Coursera dersinden ve diğer materyallerden PCA okuyorum. Stanford NLP dersinde cs224n'nin ilk ödevinde ve Andrew Ng'un ders videosunda kovaryans matrisinin özvektör ayrışması yerine tekil değer ayrıştırması yapıyorlar ve Ng, SVD'nin özerk kompozisyondan sayısal olarak daha kararlı olduğunu söylüyor. Anladığım kadarıyla PCA için, (m,n)boyutun kovaryans matrisinden değil, boyut veri …

1
Neden sadece orada
PCA'da, sayısı sayısı numune sayısından büyük (hatta eşit) olduğunda , neden en fazla sıfır olmayan özvektörlere sahip olacaksınız ? Başka bir deyişle, kovaryans matrisinin boyutları arasındaki sırası .N N - 1 d ≥ N N - 1dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Örnek: Örnekleriniz boyutunda vectorized resimlerdir , ancak yalnızca .N = 10d=640×480=307200d=640×480=307200d = …


1
"Öz" ün bir matrisin tersine çevrilmesine nasıl yardımcı olduğunu açıklayın
Benim sorum geoR:::.negloglik.GRFveya içinde kullanılan bir hesaplama tekniği ile ilgili geoR:::solve.geoR. Doğrusal karışık model kurulumunda: burada β ve b sırasıyla sabit ve rastgele etkilerdir. Ayrıca, Σ = cov ( Y )Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Etkileri tahmin ederken , normalde böyle bir şey kullanılarak yapılabilen hesaplanması gerekir , ancak bazen ( X …

1
Neden bir kovaryans matrisinin öz ve svd ayrışmaları seyrek verilere dayalı olarak farklı sonuçlar verir?
Seyrek / gappy veri kümesine dayalı bir kovaryans matrisi ayrıştırmaya çalışıyorum. Lambda (açıklanan varyans) toplamının, hesaplandığı gibi svd, giderek gappy verilerle güçlendirildiğini fark ediyorum . Boşluklar olmadan svdve eigenaynı sonuçları ver. Bu bir eigenayrışma ile gerçekleşmez . Kullanmaya yönelmiştim svdçünkü lambda değerleri her zaman pozitif, ama bu eğilim endişe vericidir. …
12 r  svd  eigenvalues 

3
Her korelasyon matrisi pozitif olarak tanımlanmış mı?
Burada Pearson korelasyonlarının matrisleri hakkında konuşuyorum. Sıklıkla tüm korelasyon matrislerinin pozitif semidefinit olması gerektiğini söylediğini duydum. Anladığım kadarıyla pozitif kesin matrislerin özdeğerleri olmalıdır , pozitif semidefinit matrislerin özdeğerleri olmalıdır . Bu, sorumun "Korelasyon matrislerinin öz değeri olması mümkün mü ?" Şeklinde yeniden yazılabileceğini düşündürüyor.≥ 0 = 0>0>0> 0≥0≥0\ge 0=0=0= 0 …

2
PCA neden projeksiyonun toplam varyansını en üst düzeye çıkarıyor?
Christopher Bishop, Desen Tanıma ve Makine Öğrenimi kitabında , veriler daha önce seçilen bileşenlere dik bir alana yansıtıldıktan sonra, ardışık her ana bileşenin projeksiyonun varyansını maksimuma çıkardığına dair bir kanıt yazar . Diğerleri de benzer kanıtlar gösteriyor. Bununla birlikte, bu sadece her ardışık bileşenin varyansı en üst düzeye çıkarmak için …

1
Özvektörlerin görsel açıklaması hakkında karıştı: görsel olarak farklı veri kümeleri aynı özvektörlere nasıl sahip olabilir?
Birçok istatistik ders kitabı, bir kovaryans matrisinin özvektörlerinin neler olduğunu sezgisel bir şekilde göstermektedir: U ve z vektörleri özvektörleri oluşturur (çukur, özler). Bu mantıklı. Ama beni şaşırtan tek şey, özvektörleri ham verilerden değil korelasyon matrisinden çıkarmamızdır. Ayrıca, oldukça farklı olan ham veri kümelerinin özdeş korelasyon matrisleri olabilir. Örneğin, aşağıdakilerin her …

1
Bir makalede “Temel bileşenlerin sayısını belirlemek için Monte Carlo simülasyonu” ifadesi yer almaktadır; o nasıl çalışır?
10304 voksel sayısı (piksel olarak düşünün) ve 236 saat noktası sayısı olan 10304x236 boyutunda bir matris üzerinde PCA gerçekleştirdiğim MRI verileri üzerinde bir Matlab analizi yapıyorum. PCA bana 236 Özdeğer ve ilgili katsayıları veriyor. Her şey yolunda. Bununla birlikte, kaç bileşenin tutulacağına karar verme zamanı geldiğinde, çoğalttığım kağıt aşağıdakileri söylüyor …

2
Neden XX 've X'X'in özdeğer ayrışması yoluyla geçerli bir X SVD elde edemiyorum?
Elle SVD yapmaya çalışıyorum: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Ancak son satır geri mdönmez. Neden? Bu özvektörlerin işaretleri ile ilgisi var gibi görünüyor ... Yoksa prosedürü yanlış mı anladım?
9 r  svd  eigenvalues 

2
İlk bilgisayarım tarafından açıklanan varyans miktarı neden ortalama ikili korelasyona bu kadar yakın?
İlk temel bileşen (ler) ile korelasyon matrisindeki ortalama korelasyon arasındaki ilişki nedir? Örneğin, ampirik bir uygulamada, ortalama korelasyonun, birinci ana bileşenin (ilk özdeğer) varyansının toplam varyansa (tüm öz değerlerin toplamı) oranıyla neredeyse aynı olduğunu gözlemliyorum. Matematiksel bir ilişki var mı? Ampirik sonuçların şeması aşağıdadır. Korelasyonun, 15 günlük yuvarlanma penceresi üzerinde …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.