Asıl soru, özellikle TensorFlow uygulamaları ile ilgiliydi. Ancak cevaplar genel olarak uygulamalar içindir. Bu genel cevap aynı zamanda TensorFlow için doğru cevaptır.
TensorFlow'da toplu normalleştirme ve bırakma kullanılırken (özellikle katkıda bulunan katmanlar kullanılarak) sipariş konusunda endişelenmem gerekir mi?
Bırakmayı ve hemen ardından toplu normalleştirmeyi kullanırsam, sorun olabilir gibi görünüyor. Örneğin, toplu normalizasyondaki kayma, eğitim çıktılarının daha büyük ölçekli sayılarına doğru ilerlerse, ancak daha sonra aynı değişim, daha küçük ölçek numaralarına (daha fazla çıktıya sahip olmanın telafisi nedeniyle), test sırasında bırakmadan uygulanırsa, o zaman vardiya kapalı olabilir. TensorFlow toplu normalleştirme katmanı bunu otomatik olarak telafi ediyor mu? Yoksa eksik olduğum bir nedenle bu olmaz mı?
Ayrıca, bu ikisini birlikte kullanırken dikkat etmeniz gereken başka tuzaklar var mı? Örneğin, yukarıdakilere göre onları doğru sırada kullandığımı varsayarsak ( doğru bir sipariş olduğunu varsayarak ), birden fazla ardışık katmanda hem toplu normalleştirmeyi hem de bırakmayı kullanmada sorun olabilir mi? Bununla ilgili hemen bir sorun görmüyorum, ancak bir şeyleri kaçırıyor olabilirim.
Çok teşekkürler!
GÜNCELLEME:
Deneysel Test görünüyor sipariş önermek yapar olsun. Aynı ağı yalnızca toplu iş normu ve bırakma tersi ile iki kez çalıştırdım. Bırakma parti normundan önce olduğunda, eğitim kaybı azaldıkça doğrulama kaybı artıyor gibi görünüyor. Diğer durumda ikisi de düşüyor. Ama benim durumumda hareketler yavaş, bu yüzden daha fazla eğitimden sonra işler değişebilir ve bu sadece tek bir test. Daha kesin ve bilinçli bir cevap yine de takdir edilecektir.