RMSProp, Adam ve SGD ile ağları kullanarak EMNIST doğrulama seti üzerinde deneyler yapıyorum. SGD (öğrenme oranı 0.1) ve bırakma (0.1 bırakma probu) ile L2 düzenlenmesi (1e-05 cezası) ile% 87 doğruluk elde ediyorum. RMSProp ve Adam ile aynı yapılandırmayı ve 0.001 başlangıç öğrenme oranını test ederken,% 85 doğruluk ve daha az pürüzsüz bir eğitim eğrisi elde ediyorum. Bu davranışı nasıl açıklayacağımı bilmiyorum. Egzersiz eğrisinde düzgünlük eksikliğinin ve elde edilen daha düşük doğruluk ve daha yüksek hata oranlarının arkasındaki neden ne olabilir?