Farklılıkların bulunması modellere bakarak yapılabilir. İlk önce seyrek kodlamaya bakalım.
Seyrek kodlama
Seyrek kodlama hedefi en aza indirir
W bir baz matrisi, H bir kod matrisi ve X temsil etmek istediğimiz verilerin matrisi
olduğu 1 sparity terimi . λ , seyreklik ve yeniden yapılanma arasında bir ticaret gerçekleştirir. Eğer H verilirse , W tahmininin en küçük kareler üzerinden kolay olduğunu unutmayın.
Lsc= | | W'H- X| |22yeniden yapılanma terimi+ λ | | 'H| |1seyreklik
WXλ'HW
Ancak başlangıçta yok . Yine de, H ile ilgili olarak yukarıdaki hedefi çözebilecek birçok algoritma mevcuttur . Aslında, şu şekilde çıkarım yapıyoruz: görünmeyen bir x'e ait h'yi bilmek istiyorsak bir optimizasyon problemini çözmemiz gerekiyor .'H'Hhx
Otomatik kodlayıcılar
Otomatik kodlayıcılar denetlenmemiş sinir ağlarının bir ailesidir. Bunlardan birçoğu vardır, örneğin derin otomatik kodlayıcılar veya farklı düzenleyici hileler eklenmiş olanlar - örneğin, kıkırdama, büzülme, seyrek. Üretken stokastik ağlar veya değişken otomatik kodlayıcı gibi olasılıksal olanları bile vardır. En soyut şekli
ancak şimdilik çok daha basit olanı ile gideceğiz:
L ae = | | W σ ( W T X )
D ( d( e ( x ; θr) ; θd) , x )
,
σ lojistik sigmoid
σ ( x ) = 1 gibi doğrusal olmayan bir fonksiyondur.
Lae= | | Wσ( WTX) - X| |2
σ .
σ( x ) = 11 + exp( - x )
benzerlikler
Not bu görünüyor neredeyse gibi L bir E biz ayarlamasına H = σ ( W , T x ) . Her ikisinin de farkı, i) otomatik kodlayıcıların, genel biçimlerinde seyrekliği teşvik etmemesidir ii) bir otomatik kodlayıcı, kodları bulmak için bir model kullanırken, seyrek kodlama, optimizasyon yoluyla bunu yapar.Ls cLbir e'H= σ( WTX)
WWLs c
Ayrıca, farklı regülasyon metotları, farklı karakteristiklerle temsili sağlar. Denoising otomatik kodlayıcıların da belirli bir RBM vs. formuna eşdeğer olduğu gösterilmiştir.
Ama neden?
Bir tahmin sorununu çözmek istiyorsanız, yalnızca çok az etiketli ve çok sayıda etiketsiz veri yoksa otomatik kodlayıcıya ihtiyacınız olmayacak . O zaman, genellikle derin bir otomatik kodlayıcı eğitmek ve derin bir sinir ağını eğitmek yerine, üstüne bir doğrusal SVM koymak daha iyi olacaktır.
Bununla birlikte, dağılımların karakteristiğini yakalamak için çok güçlü modellerdir. Bu belirsiz olmakla birlikte, şu anda bunu istatistiki gerçeklere dönüştürmek için araştırmalar yürütülmektedir. Derin gizli Gauss modelleri: Değişken Otomatik kodlayıcılar veya üretken stokastik ağlar, temelde veri dağılımını kesin olarak tahmin eden otomatik kodlayıcılar elde etmenin oldukça ilginç bir yoludur.