Burada cevap, benzer sigmoidaktivasyon fonksiyonları olan ama sanırım Relubir dezavantaja sahip olan ve beklenen değeri olan yok olan ve patlayan gradyanları ifade eder . çıkışı için bir sınırlama yoktur Reluve bu nedenle beklenen değeri sıfır değildir. Popülerlik önce hatırlıyorum Reluo tanhmakine ziyade uzmanlar öğrenme arasında en popüler oldu sigmoid. Bunun nedeni, beklenen değerinin tanhsıfıra eşit olması ve daha derin katmanlarda öğrenmenin sinir ağında daha hızlı olmasına yardımcı olmasıdır. Relubu özelliğe sahip değil, ancak türev avantajını bir kenara bırakırsak neden bu kadar iyi çalışıyor. Dahası, türev de etkilenebilir. Çünkü aktivasyonlar (çıktıRelu) güncelleme kurallarının hesaplanmasında yer alır.
CNNnormalleştirme çıktısı reluyaygın değil mi? En azından bunu hiç görmedim.