Şu anda sinir ağları üzerinde bir sınava hazırlanıyorum. Önceki sınavların çeşitli protokollerinde nöronların aktivasyon fonksiyonlarının (çok katmanlı algılayıcılarda) monotonik olması gerektiğini okudum.
Aktivasyon fonksiyonlarının ayırt edilebilir olması, çoğu noktada 0 olmayan bir türeve sahip olması ve doğrusal olmaması gerektiğini anlıyorum. Monotonik olmanın neden önemli / yararlı olduğunu anlamıyorum.
Aşağıdaki aktivasyon fonksiyonlarını ve monotonik olduklarını biliyorum:
- relu
- sigmoid
- tanh
- Softmax: Monotonite tanımının ile işlevleri için geçerli olup olmadığından emin değilim.
- SOFTPLUS
- (Kimlik)
Ancak, örneğin için herhangi bir neden göremiyorum .
Aktivasyon fonksiyonlarının neden monotonik olması gerekir?
(İlgili taraf sorusu: logaritma / üstel fonksiyonun aktivasyon fonksiyonu olarak kullanılmamasının bir nedeni var mı?)