«activation-function» etiketlenmiş sorular

2
Bir aktivasyon fonksiyonu nasıl seçilir?
Çıktı katmanı için aktivasyon fonksiyonunu ihtiyacım olan çıktıya ve bildiğim aktivasyon fonksiyonunun özelliklerine bağlı olarak seçiyorum. Örneğin, olasılıklarla uğraşırken sigmoid işlevini, pozitif değerlerle uğraşırken ReLU'yu ve genel değerlerle uğraşırken doğrusal bir işlevi seçerim. Gizli katmanlarda, ReLU yerine ölü nöronları ve sigmoid yerine tanh'ı önlemek için sızdıran bir ReLU kullanıyorum. Tabii …



1
ReLU vs Leaky ReLU ve Parametrik ReLU'nun (varsa) avantajları nelerdir?
Bence ReLU yerine Leaky ReLU kullanmanın avantajı, bu şekilde yok olan bir eğime sahip olamayız. Parametrik ReLU, negatif girişler için çıkışın eğiminin öğrenilebilir bir parametre olmasıyla aynı avantaja sahiptir, ancak Leaky ReLU'da bir hiperparametredir. Ancak, Leaky ReLU veya Parametric ReLU yerine ReLU'nun kullanılmasının daha uygun olduğu durumlar olup olmadığını söyleyemiyorum.
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.