Neden t-SNE kümeleme veya sınıflandırma için bir boyutluluk azaltma tekniği olarak kullanılmıyor?


34

Yakın zamanda yapılan bir atamada, boyutları 64'ten (8 x 8 görüntüler) 2'ye düşürmek için MNIST rakamlarında PCA kullanmamız söylendi. Daha sonra rakamları bir Gauss Karışım Modeli kullanarak kümelemek zorunda kaldık. Yalnızca 2 ana bileşen kullanan PCA, farklı kümeler vermez ve sonuç olarak, model yararlı gruplar oluşturamaz.

Bununla birlikte, 2 bileşenli t-SNE kullanılarak kümeler çok daha iyi ayrılır. Gauss Karışım Modeli, t-SNE bileşenlerine uygulandığında daha belirgin kümeler üretir.

2 bileşenli PCA ve 2 bileşenli t-SNE'deki fark, dönüşümlerin MNIST veri setine uygulandığı aşağıdaki görüntü çiftlerinde görülebilir.

MNIST’de PCA

MNIST’de t-SNE

T-SNE'nin yalnızca bu cevapta olduğu gibi yüksek boyutlu verilerin görselleştirilmesi için kullanıldığını , ancak ürettiği farklı kümeler göz önüne alındığında, neden daha sonra sınıflandırma modelleri için kullanılan bir boyutluluk azaltma tekniği olarak kullanılmadığını veya bağımsız bir kümeleme yöntemi?


2
Sınıflandırma mı yoksa kümeleme mi demek istiyorsunuz? Başlık kümeleme diyor ama yazı sınıflandırma diyor.
usεr11852, Reinstate Monic’e göre

Bunun için üzgünüm. Sınıflandırma için neden kümeleme tekniği olarak ya da boyutsallık azaltma tekniği olarak kullanılmadığını bilmek istiyorum. Bunu yansıtacak şekilde düzenledim.
saat

Tesadüfen, son zamanlarda yayınlanan bir makale, yanma işlemlerini etiketlemek için t-SNE ve denetimsiz bir kümeleme algoritması kullanmaktadır.
tpg2114

2
Bağladığın cevap tSNE'nin ne kadar yanıltıcı olabileceğini gösteriyor. Verilerde bulunmayan arsada kümeleri görüyorsunuz. Etiketiniz yoksa, bu zararlıdır. Ve MNIST verilerinden çok fazla sonuç çıkarmayın. Bu son derece iyi kalpli bir veri seti ...
Anony-Mousse

1
Bu makaleyi t-SNE'yi ve dezavantajlarını açıklamada yardımcı olacak buldum . Ana noktaları vurgulamaya yardımcı olan birçok etkileşimli görselleştirmeye sahiptir.
1'de 04:

Yanıtlar:


33

tt

tt

tt11Başlamak için de sınıflandırma kullanmış olabiliriz (bu bizi otomatik kodlayıcıların kullanımına geri getirir).


1
Q, kümelemeyle ilgili sınıflandırmadan daha fazlasını soruyor gibi görünüyor. En azından kümelenme başlığın içindedir.
amip diyor Reinstate Monica

@ amoeba: Ben de aynısını düşündüm ve mesafeye dayalı olmayan kümelemeyle (örneğin FMM, DBSCAN) potansiyel kullanım hakkında yazdım, fakat sonra şu soruyu okudum: " neden sınıflandırma için kullanılan bir boyutluluk azaltma tekniği olarak kullanılmıyor?" modeller? "
usεr11852 diyor Reinstate Monic,

Evet, ancak Q başlığı farklı. Bunun adrese mantıklı olabilir böylece OP fark hakkında karıştırılmamalıdır olabileceğini düşünüyorum hem sizin A'da!
amip diyor Reinstate Monica

4
Tamam .. Tamam ... Slave sürüş
ökaryotu

1
(1) Çok Bu kümelenme / t-SNE cevap üzerine düşüncelerinizi öğrenmek ilgilenen olurdu stats.stackexchange.com/questions/263539 Sadece yayınlanmıştır. CC ayrıca @caseWestern'e de - bu sizin de ilginizi çekebilir.
amip diyor Reinstate Monica

3

t-SNE mesafeleri korumaz, fakat temelde olasılık dağılımlarını tahmin eder. Teoride, t-SNE algoritmaları girişi 2 veya 3 boyutlu bir harita alanına eşler. Giriş alanının bir Gauss dağılımı ve harita alanının bir t dağılımı olduğu varsayılmaktadır. Kullanılan kayıp fonksiyonu, gradyan inişi kullanılarak en aza indirgenmiş iki dağıtım arasındaki KL Sapmadır.

T-SNE'nin ortak yazarı Laurens van der Maaten'a göre

t-SNE mesafeleri değil olasılıkları korumaz, bu nedenle yüksek D ve düşük D'deki Öklid mesafeleri arasındaki bir hatayı ölçmek işe yaramaz.

Referans:

https://lvdmaaten.github.io/tsne/

https://www.oreilly.com/learning/an-illustrated-introduction-to-the-t-sne-algorithm


2

Genel bir ifade olarak: Yeterince güçlü (/ uygun) bir sınıflandırıcı verildiğinde veya kümelenirse, herhangi biri herhangi bir boyutsallık azaltması uygulayamaz .

Boyutsallık azalması bilgiyi kaybeder.

Böyle bir küme veya sınıflandırıcı (esp sınıflandırıcılar, daha az kümeler) olduğundan, içten bir yansıtma biçimini zaten anlamlı bir alana yönlendirir. Ve Boyutluluk azaltma da (umutlu) anlamlı bir alana yansıtmadır.

Ancak, boyutluluk azaltmanın bunu bilgisiz bir şekilde yapması gerekir - hangi görevi azalttığınızı bilmiyor. Bu, özellikle doğrudan denetlenen bilgilerin bulunduğu sınıflandırma için geçerlidir. Ancak, kümelenme için yansıtılacak alanın sadece "daha az boyutlara sahip olmaktan" daha iyi tanımlandığı (bu algoritma için) daha iyi tanımlandığı bir kümelenme için de geçerlidir. Küçülteceğiniz görev - hangi boyutluluk azaltma algoritmasını kullanacağınız konusunda onu bilgilendirirsiniz.

Sık sık, kümeleme / sınıflandırma öncesi ön işleme olarak bir boyutluluk azaltma adımı eklemek yerine, yararlı bir projeksiyonda yanlış çalışan farklı bir sınıflandırıcı / kümelenme kullanmak daha iyidir.

Boyutsallığın azaltılmasının bir şey buna rağmen, bunun (umarım) anlamlı alana yansımasını yaratmada denetimsiz doğasıdır. Çok az etiket veriniz varsa kullanışlıdır. Ancak, sınıflandırıcınıza (örneğin sinir ağları için, otomatik kodlayıcı kullanarak, örneğin derin inanç ağı ön eğitimi), yakından çalışacak başka yöntemler de vardır, çünkü bunlar daha iyi çalışacaklardır, çünkü bu son görev düşünülerek tasarlandılar. Boyutsallığın azaltılmasının daha genel bir görevi değil.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.