İşte bununla ilgili bazı sorunlar olabileceğini belirten bir tartışma dizisi (Temmuz 2013'ten itibaren), ancak yapılabilir.
Çağlar Gülçehre (Yoshua Bengio'nun laboratuvarından) Bilgi Konuları'nda şu tekniği başarıyla kullandığını söyledi : Optimizasyon için Ön Bilgilerin Önemi :
ilk DAE'yi her zamanki gibi eğitin, ancak gizli katmandaki doğrultucularla:
a1(x) = W1 x + b1
h1 = f1(x) = rectifier(a1(x))
g1(h1) = {sigmoid}(V1 h1 + c1)
g1 (f1 (bozuk (x))) ve x'i karşılaştırarak çapraz entropi veya MSE kaybını en aza indirin. sigmoid verilere bağlı olarak isteğe bağlıdır.
2. DAE'yi f1 doğrultucudan önce eklenen gürültü ile eğitin ve MSE kaybı olan softplus yeniden yapılandırma birimlerini kullanın:
h2 = f2(h1) = rectifier(W2 h1 + b2)
g2(h2) = softplus(V2 h2 + c2)
minimize∥f1(x)−g2(f2(rectifier(corrupt(a1(x)))))∥2+λ1∥W∥1+λ2∥W∥2
Xavier Glorot, ayrıca Bengio laboratuarından, o değiştirilmesi haricinde aynı şeyi söyledi bir ile (muhtemelen "aktivasyon değerleri üzerinde" ceza hem?) Alan Uyarlanması için Büyük Ölçekli Duygu Sınıflandırması: Derin Öğrenme Yaklaşımı (ICML 2011) ve Derin seyrek doğrultucu sinir ağlarında (AISTATS 2011).∥W∥1L1∥g2(…)∥1