«dimensionality-reduction» etiketlenmiş sorular

Veriler hakkında olabildiğince fazla bilgiyi korurken, çok sayıda değişkeni veya veri tarafından yayılan boyutları daha az sayıda boyuta küçültme tekniklerini ifade eder. Öne çıkan yöntemler arasında PCA, MDS, Isomap, vb. Yer alır. Tekniklerin iki ana alt sınıfı: özellik çıkarma ve özellik seçimi.

5
En önemli ana bileşenler, bağımlı değişken üzerindeki tahmin gücünü nasıl koruyabilir (hatta daha iyi tahminlere yol açabilir)?
Diyelim ki bir regresyon . Neden üst seçerek ilkesi bileşenleri , model üzerindeki öngörü gücünü korumak mu ?Y∼XY∼XY \sim XkkkXXXYYY Ben boyutluluk-azaltma / görüş özellikli seçme noktasında, eğer gelen anlıyoruz kovaryans matrisinin öz vektörleri olduğundan üst ile özdeğerler, ardından üst olan ana bileşenler maksimum varyans ile. Böylece, özelliklerin sayısını azaltabilir …

2
“Doğrusal olmayan”, “doğrusal olmayan boyutsallığın azaltılması” nda nasıl anlaşılır?
Doğrusal boyutsallık azaltma yöntemleri (örneğin, PCA) ve doğrusal olmayanlar (örneğin, Isomap) arasındaki farkları anlamaya çalışıyorum. Doğrusal olmamanın bu bağlamda ne anlama geldiğini tam olarak anlayamıyorum. Ben okunan Vikipedi o Karşılaştırma yapılırsa, aynı veri setini iki boyuta indirmek için PCA (doğrusal bir boyutsallık azaltma algoritması) kullanılırsa, elde edilen değerler o kadar …

3
Görselleştirme için boyutsallık azaltma, t-SNE tarafından çözülen “kapalı” bir sorun olarak mı düşünülmeli?
Boyutsallığın azaltılması için -sne algoritması hakkında çok şey okudum . MNIST gibi "klasik" veri kümelerindeki performanstan, rakamların net bir şekilde ayrılmasını sağladığı için çok etkilendim ( orijinal makaleye bakın ):ttt Ayrıca, eğittiğim bir sinir ağı tarafından öğrenilen özellikleri görselleştirmek için de kullandım ve sonuçlardan çok memnun kaldım. Yani, anladığım kadarıyla: …

1
Neden sadece orada
PCA'da, sayısı sayısı numune sayısından büyük (hatta eşit) olduğunda , neden en fazla sıfır olmayan özvektörlere sahip olacaksınız ? Başka bir deyişle, kovaryans matrisinin boyutları arasındaki sırası .N N - 1 d ≥ N N - 1dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Örnek: Örnekleriniz boyutunda vectorized resimlerdir , ancak yalnızca .N = 10d=640×480=307200d=640×480=307200d = …

2
“Azaltılmış regresyon” nedir?
İstatistiksel Öğrenmenin Öğelerini okuyordum ve 3.7. Bölümün "Çoklu sonuç küçültmesi ve seçimi" nin ne anlama geldiğini anlayamadım. RRR (azaltılmış dereceli regresyon) hakkında konuşuyor ve ben sadece öncülün katsayıların bilinmediği (ve tahmin edileceği) fakat tam dereceye sahip olmadığı bilinen bir genel değişkenli doğrusal model hakkında olduğunu anlayabiliyorum. Anladığım tek şey bu. …

1
MDS'ye karşı t-SNE
Son zamanlarda t-SNE ( t-Dağıtılmış Stokastik Komşu Yerleşimi ) ile ilgili bazı soruları okudum ve ayrıca MDS ( Çok Boyutlu Ölçeklendirme ) ile ilgili bazı soruları da ziyaret ettim . Genellikle benzer şekilde kullanılırlar, bu yüzden burada her ikisinde de (veya PCA ile karşılaştırıldığında ) birçok soru olduğunu görünce bu …

3
PCA, boyutluluk örneklem sayısından büyük olduğunda
Bir sınıflandırıcıya geçmem gereken 14000 veri noktası (boyut) içeren 10 kişi için 10 sinyal / kişi (yani 100 örnek) bulunan bir senaryoya rastladım. Bu verinin boyutunu azaltmak istiyorum ve PCA bunu yapmanın yolu gibi görünüyor. Ancak, PCA'nın örneklerini yalnızca örnek sayısının boyut sayısından büyük olduğu yerlerde bulabildim. SVD kullanarak PC'leri …

4
Karma veriler neden öklid tabanlı kümeleme algoritmaları için bir sorundur?
Klasik kümeleme ve boyutsallık azaltma algoritmalarının çoğu (hiyerarşik kümeleme, temel bileşen analizi, k-araçları, kendi kendini düzenleyen haritalar ...) özel olarak sayısal veriler için tasarlanmıştır ve girdi verileri bir öklid uzayında noktalar olarak görülür. Bu, elbette bir sorun, çünkü gerçek dünyadaki birçok soru karışık veriler içeriyor: örneğin otobüsleri incelersek, yükseklik ve …

4
Fonksiyonel temel bileşen analizi (FPCA): hepsi ne hakkında?
Fonksiyonel temel bileşen analizi (FPCA) tökezlediğim ve asla anlayamadığım bir şey. Bütün bunlar ne hakkında? Bkz Shang 2011 tarafından "işlevsel temel bileşenler analizinin bir anket" ve ben gerekçe ediyorum: PCA, “boyutsallığın laneti” nedeniyle fonksiyonel verilerin analizinde ciddi zorluklarla karşılaşmaktadır (Bellman 1961). “Boyutsallığın laneti” yüksek boyutlu uzayda veri esnekliğinden kaynaklanmaktadır. PCA'nın …

1
Bir sınıflandırma tekniği olan LDA'nın PCA gibi boyutsallık azaltma tekniği olarak nasıl işlev gördüğü
Bu makalede , yazar doğrusal diskriminant analizini (LDA) temel bileşen analizine (PCA) bağlar. Sınırlı bilgimle, LDA'nın PCA'ya nasıl benzediğini takip edemiyorum. Her zaman LDA'nın lojistik regresyona benzer bir sınıflandırma algoritması olduğunu düşündüm. LDA'nın PCA'ya nasıl benzediğini anlamada bazı yardımları takdir edeceğim, yani boyutsallık azaltma tekniği nasıl.

5
Veri akışı için t-SNE'nin herhangi bir sürümü var mı?
Benim anlayış , t-SNE ve Barnes-Hut yaklaşım tüm veri noktaları tüm kuvvet etkileşimleri aynı anda hesaplanabilir ve her nokta 2d ayarlanabilir (veya boyutsal alt) ilk böylece gerekli olmasıdır. Veri akışı ile etkin bir şekilde başa çıkabilen t-sne'nin herhangi bir sürümü var mı? Dolayısıyla, gözlemlerim birer birer geliyorsa, yeni gözlemi yerleştirmek …


4
“Boyutsallığın laneti” gerçek verilerde gerçekten var mı?
"Boyutsallığın laneti" nin ne olduğunu anlıyorum ve bazı yüksek boyutlu optimizasyon problemleri yaptım ve üstel olasılıkların zorluklarını biliyorum. Ancak, gerçek boyutların çoğunda "boyutsallığın laneti" mevcutsa şüphe ediyorum. Binlerce özelliğe sahip veri toplayabiliriz ancak özelliklerin binlerce boyuta sahip bir alana tam olarak yayılması mümkün değildir. Boyut azaltma tekniklerinin bu kadar popüler …

4
SVD / PCA için “normalleştirme” değişkenleri
NNN ölçülebilir değişkenimiz olduğunu varsayalım , bir dizi ölçüm yapıyoruz ve sonra noktaları için en yüksek varyansın eksenlerini bulmak için sonuçlarda tekil değer ayrışması yapmak istiyoruz. içerisinde boyutlu alan. ( Not: araçlarının zaten çıkarıldığını varsayalım , bu yüzden tüm için )(a1,a2,…,aN)(a1,a2,…,aN)(a_1, a_2, \ldots, a_N)M>NM>NM > NMMMNNNaiaia_i⟨ai⟩=0⟨ai⟩=0\langle a_i \rangle = 0iii …

2
Boyutsal azaltmayı ne zaman kümeleme ile birleştiriyoruz?
Belge düzeyinde kümeleme yapmaya çalışıyorum. Doküman terim frekans matrisini oluşturdum ve bu yüksek boyutlu vektörleri k-araçları kullanarak kümelemeye çalışıyorum. Doğrudan kümeleme yerine, U, S, Vt matrislerini elde etmek için LSA'nın (Latent Semantic Analysis) tekil vektör ayrışmasını uygulamak, dağlama grafiğini kullanarak uygun bir eşik seçti ve indirgenmiş matrislere kümeleme uygulandı (özellikle …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.