Yapay bir sinir ağı ANN, denetlenmemiş kümelenme için nasıl kullanılabilir?


52

artificial neural network (ANN)Tahminlerde hatayı azaltarak armatürü iyileştirmek için backpropogation kullanarak denetimli bir şekilde nasıl eğitilebileceğini anlıyorum . Bir YSA'nın denetimsiz öğrenme için kullanılabileceğini duydum, ancak optimizasyon aşamalarını yönlendirmek için bir çeşit maliyet fonksiyonu olmadan nasıl yapılabilir? K-means veya EM algoritması ile her yinelemenin artması için bir fonksiyon vardır.

  • Bir YSA ile kümelemeyi nasıl yapabiliriz ve aynı bölgedeki veri noktalarını gruplamak için hangi mekanizmayı kullanır?

(ve daha fazla katman ekleyerek hangi ekstra yetenekler getirildi?)


Genel olarak NN denetimsiz öğrenmeyle veya özellikle sinir ağları ile denetimsiz kümelemeyle mi ilgileniyorsunuz?
Denis Tarasov

@DenisTarasov, öncelikle NN ile denetimsiz kümelemeyle ilgileniyorum, ancak genel olarak NN denetimsiz NN öğrenimi hakkında fazla bir şey bilmiyorum. Bir cevabı, belirli bir uygulamayı tartışmadan önce genel olarak denetlenmeyen öğrenmenin bir kısmını NN içermesi iyi olurdu.
02'de Vass

1
Kendi Kendini Düzenleyen Harita (SOM), kümeleme için kullanılan bir tür ağdır.
Cagdas Ozgenc

YSA'da denetimsiz öğrenme - Eğitim setinden istatistiksel özellikler çıkarır. - Denetimsiz öğrenme daha zordur ancak biyolojik olarak makul olarak görülür - Öğretmeni gerektirmez.
yonas,

Yanıtlar:


56

Sinir ağları, girdi verilerinin daha iyi temsilini öğrenmek için denetimsiz öğrenmede yaygın olarak kullanılmaktadır. Örneğin, bir dizi metin dokümanı verildiğinde, NN, elde edilen vektörlerin benzer içeriğe sahip dokümanlar için benzer, yani uzaklığı koruyacak şekilde, dokümandan gerçek değerli vektöre bir eşlemeyi öğrenebilir. Bu, örneğin, otomatik kodlayıcılar - orijinal vektörü yeniden yapılandırma hatasıyla (ID fonksiyonundan uzaklık) maliyet fonksiyonu olarak yeniden yapılandırmak için eğitilmiş bir model olan otomatik kodlayıcılar kullanılarak gerçekleştirilebilir. Bu işlem size kümeler vermez, ancak kümeleme için kullanılabilecek anlamlı temsiller oluşturur. Örneğin, gizli katman aktivasyonları üzerinde bir kümeleme algoritması çalıştırabilirsiniz.

Kümeleme: Kümeleme için özel olarak tasarlanmış birkaç farklı NN mimarisi vardır. En yaygın olarak bilinenler muhtemelen kendi kendini düzenleyen haritalar. SOM, topolojik bir ızgara (genellikle dikdörtgen) oluşturmak üzere bağlı bir dizi nöron içeren bir NN'dir. Bir desen SOM'a sunulduğunda, en yakın ağırlık vektörüne sahip olan nöron kazanan olarak kabul edilir ve ağırlıkları, kalıbın yanı sıra mahallesinin ağırlıkları için de uyarlanır. Bu şekilde bir SOM doğal olarak veri kümelerini bulur. Bir miktar ilgili algoritma sinir gazı büyütüyor (önceden tanımlanmış nöron sayısı ile sınırlı değil).

Diğer bir yaklaşım ise iki katmana sahip olduğumuz Adaptif Rezonans Teorisidir: "karşılaştırma alanı" ve "tanıma alanı". Tanıma alanı ayrıca karşılaştırma alanından transfer edilen vektör ile en iyi eşleşmeyi (nöron) belirler ve ayrıca yanal engelleyici bağlantılara sahiptir. Uygulama detayları ve tam denklemler bu modellerin isimlerini google tarafından kolayca bulunabilir, bu yüzden onları buraya koymayacağım.


15

Kendi kendini düzenleyen haritalara bakmak istiyorsun . Kohonen (onları icat eden) onlar hakkında bir kitap yazdı . Bunun için R'de ( som , kohonen ) paketler var ve MATLAB gibi başka dillerde de uygulamalar var .


NN'nin bunu nasıl yapabileceği ve teori üzerinde ayrıntılı bilgi verebilir misiniz? muhtemelen derin bir NN (DNN) kullanmanın etkisini de açıklayabilir misiniz?
Vass

1
Korkarım burada çok az uzmanlığım var, @Vass. Fazladan katman eklemek yavaşlatmaktan başka bir şey yapmaz. Size başka birisinin teoriyi vermesi gerekecek, sadece başlamanızı istedim.
dediklerinin - Monica Yeniden

1
Laboratuvarımızdaki bir öğrenci SOM kullanarak kümelemeyi denemiştir. Sonsuza dek sürdü ve sonuçlar diğer yaklaşımlara göre çok hayal kırıklığı yarattı (bizim durumumuzda standart grafik kümeleme algoritmaları). Standart 2B hedef alanın (topolojik ızgara) son derece keyfi bir alan gibi görünmesi beni her zaman şaşırttı. Daha endişe verici olanı çok basittir ve esas olarak verileri sadece iki değişken tarafından tanımlanan bir alana sıkıştırmak gerekir.
mikan

@micans bazı iyi noktalara işaret ediyor, ancak veriler sadece iki değişken tarafından tanımlanan bir alana sıkıştırılmıyor, çünkü her bir düğüm bir prototip ile de bağlantılı. Ayrıca, çalışma yavaşsa, uygulama sorunu da olabilir. İstatistiksel olarak, SOM dışındaki diğer yöntemler daha iyi sınıflandırma sonuçları elde etmelidir. Topoloji konusuna gelince, beyin 2B topolojinin katmanları olarak düzenlenmiş gibi görünüyor, ancak harika sonuçlar elde ediyor (ya da öyle düşünmek istiyorum).
Tom Anderson
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.