Tamamen bağlı (en az 2 gizli katmandan oluşan katmana katman) backprop ağları evrensel öğrenicilerdir. Ne yazık ki, genellikle öğrenmeleri yavaş ve aşırı uyuyor ya da garip genellemeler yapıyorlar.
Bu ağlarla uğraşmaktan, bazı kenarların budanmasının (ağırlıklarının sıfır olması ve değişmesi imkansız) bu ağların daha hızlı öğrenmesini ve daha iyi bir şekilde öğrenmesini sağlama eğiliminde olduğunu gördüm. Bunun bir nedeni var mı? Sadece ağırlık arama alanının boyutsallığındaki bir azalma nedeniyle mi, yoksa daha ince bir sebep mi var?
Ayrıca, daha iyi genelleme baktığım 'doğal' sorunların bir eseri mi?