Yani, son zamanlarda bir Katman Normalleştirme kağıdı var. Keras'larda da bir uygulaması var .
Ancak, Tekrarlanan Toplu Normalizasyon (Cooijmans, 2016) ve Toplu Normalleştirilmiş Tekrarlayan Sinir Ağları (Laurent, 2015) başlıklı makaleler olduğunu hatırlıyorum . Bu üç arasındaki fark nedir?
Anlamıyorum bu İlgili Çalışma bölümü var:
Parti normalizasyonu daha önce tekrarlayan sinir ağlarına yayılmıştır [Laurent ve diğerleri, 2015, Amodei ve diğerleri, 2015, Cooijmans ve diğerleri, 2016]. Önceki çalışma [Cooijmans ve ark., 2016], her zaman aşaması için bağımsız normalleştirme istatistiklerini koruyarak tekrarlayan parti normalizasyonunun en iyi performansının elde edildiğini göstermektedir. Yazarlar, tekrarlayan parti normalizasyon katmanında kazanç parametresinin 0,1 olarak başlatılmasının, modelin nihai performansında önemli bir fark yarattığını göstermektedir. Çalışmamız aynı zamanda kilo normalleşmesi ile de ilgilidir [Salimans ve Kingma, 2016]. Ağırlık normalizasyonunda, varyans yerine, gelen ağırlıkların L2 normu toplanan girdileri bir nörona normalleştirmek için kullanılır.. Beklenen istatistikleri kullanarak ağırlık normalizasyonu veya parti normalizasyonu uygulamak, orijinal ileri beslemeli sinir ağının farklı bir parametrelemesine eşdeğerdir. ReLU ağındaki yeniden parametreleştirme Pathnormalize SGD'de incelenmiştir [Neyshabur et al., 2015]. Bununla birlikte, önerilen katman normalleştirme yöntemi, orijinal sinir ağının yeniden parametreleştirilmesi değildir. Dolayısıyla normalleştirilmiş katman modeli, aşağıdaki bölümde çalışacağımız diğer yöntemlerden farklı değişmezlik özelliklerine sahiptir.