«dimensionality-reduction» etiketlenmiş sorular

Veriler hakkında olabildiğince fazla bilgiyi korurken, çok sayıda değişkeni veya veri tarafından yayılan boyutları daha az sayıda boyuta küçültme tekniklerini ifade eder. Öne çıkan yöntemler arasında PCA, MDS, Isomap, vb. Yer alır. Tekniklerin iki ana alt sınıfı: özellik çıkarma ve özellik seçimi.

3
PCA her ikisi de n, p büyük olduğunda çok yavaş: Alternatifler?
Sorun Ayarı 2D olarak görselleştirmeye çalıştığım yüksek boyutlu (4096) veri noktalarına (görüntüler) sahibim. Bu amaçla, Karpathy'nin aşağıdaki örnek koduna benzer bir şekilde t-sne kullanıyorum . Scikit-öğrenme dokümantasyon ilk verilerin boyutunu düşürmek için PCA kullanılmasını önerir: Özellik sayısının çok yüksek olması durumunda boyut sayısını makul bir miktara (örneğin 50) düşürmek için …

1
Manifold öğrenimi ile doğrusal olmayan boyutsallık azalması arasındaki fark nedir?
Manifold öğrenimi ile doğrusal olmayan boyutsallık azalması arasındaki fark nedir ? Bu iki terimin birbirinin yerine kullanıldığını gördüm. Örneğin: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Manifold Öğrenme (genellikle doğrusal olmayan boyutsallık azalması olarak da adlandırılır), karakteristik özellikleri korurken, başlangıçta daha düşük boyutlu bir alanda yüksek boyutlu bir alanda bulunan verileri gömme hedefini takip eder. …

2
Sıcaklığa karşı dondurma satışının bu PCA grafiğini anlamak
Dondurma Satışlarına karşı kukla bir sıcaklık verileri alıyorum ve 2 kategoriyi (tamamen kukla) ayırt etmek için K Means (n ​​clusters = 2) kullanarak kategorilere ayırdım. Şimdi bu veriler üzerinde Temel Bileşen Analizi yapıyorum ve amacım gördüklerimi anlamak. PCA'nın amacının boyutsallığı azaltmak (bu durumda değil) ve elementlerin varyansını göstermek olduğunu biliyorum. …

2
Ölçeklenebilir boyut küçültme
Sabit özelliklerin sayısı göz önüne alındığında, Barnes-Hut t-SNE'nin karmaşıklığıO ( n günlüğün )O(nlog⁡n)O(n\log n), rastgele projeksiyonlar ve PCA, çok büyük veri setleri için onları "uygun fiyatlı" yapan karmaşıklığına sahiptir .O ( n )O(n)O(n) Öte yandan, güvenerek yöntemleri boyutlu ölçekleme bir olması karmaşıklığı.O (n2)O(n2)O(n^2) Karmaşıklığı daha düşük olan başka boyut küçültme …

1
Bu otomatik kodlayıcı ağının işlevi düzgün şekilde yapılamıyor (evrişimli ve makspool katmanlarla)
Otomatik kodlayıcı ağları normal sınıflandırıcı MLP ağlarından çok daha karmaşık görünmektedir. Lasagne kullanarak yapılan birkaç denemeden sonra , yeniden yapılandırılmış çıktıda elde ettiğim her şey, en iyi şekilde , giriş basamağının gerçekte ne olduğunu ayırt etmeden MNIST veritabanının tüm görüntülerinin bulanık bir ortalamasına benzeyen bir şeydir . Seçtiğim ağ yapısı …

2
Manifold varsayımının doğru olduğunu nasıl kanıtlayabilirim?
Makine öğrenmesinde, genellikle bir veri kümesinin düzgün bir düşük boyutlu manifoldda (manifold varsayımı) olduğu varsayılır, ancak belirli koşulların karşılandığını varsaymanın herhangi bir yolu vardır, o zaman veri kümesi gerçekten (yaklaşık olarak) üretilir boyutlu pürüzsüz bir manifolddan? Örneğin, bir veri sekansı verilen burada (farklı açılarla ön görüntü sırasını ki) ve karşılık …

3
ICA'nın önce PCA'yı çalıştırması gerekiyor mu?
ICA uygulamadan önce PCA (fastICA paketi kullanarak) uygulanmasını söyleyen uygulama tabanlı bir makaleyi gözden geçirdim. Sorum şu: ICA (fastICA) önce PCA'nın çalıştırılmasını gerektiriyor mu? Bu yazı , ... ayrıca, PCA'nın ön-uygulamasının, (1) beyazlatmadan önce küçük arkadan gelen özdeğerleri atarak ve (2) çift-bağımlı bağımlılıkları en aza indirerek hesaplama karmaşıklığını azaltarak ICA …

4
PCA'ya benzer ortogonal olmayan teknik
Bir 2B nokta veri kümesine sahip olduğumu ve verilerdeki tüm yerel maksimum varyansların yönlerini tespit etmek istediğimizi varsayalım: PCA bu durumda yardımcı olmaz çünkü dik bir ayrışmadır ve bu nedenle her iki çizgiyi de mavi renkte algılayamaz, bunun yerine çıktısı yeşil çizgilerle gösterilene benzeyebilir. Lütfen bu amaç için uygun olabilecek …

2
PCA ya da faktör analizinde çarpık değişkenler
22 değişkene dayalı SPSS üzerinde temel bileşen analizi (faktör analizi) yapmak istiyorum. Ancak, bazı değişkenlerim çok eğri (SPSS'den hesaplanan çarpıklık 2-80 arasında!). Sorularım işte burada: Çarpık değişkenleri böyle tutmalı mıyım yoksa değişkenleri ana bileşen analizinde değiştirebilir miyim? Evetse, faktör puanlarını nasıl yorumlayabilirim? Ne tür bir dönüşüm yapmalıyım? log10 veya ln? …


1
Boyutsal küçültme / çok boyutlu ölçeklemenin sonuçları nasıl yorumlanır?
Verilerin yapısını daha iyi anlamak için 6 boyutlu bir veri matrisinin hem SVD ayrışmasını hem de çok boyutlu ölçeklendirmesini yaptım. Ne yazık ki, tüm tekil değerler aynı sıraya sahiptir, bu da verilerin boyutsallığının gerçekten 6 olduğunu gösterir. Ancak, tekil vektörlerin değerlerini yorumlayabilmek istiyorum. Örneğin, birincisi her boyutta (yani (1,1,1,1,1,1)) az …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.