Yanıtlar:
Bir nöronun çıkışı, genellikle 0 olmak üzere bir eşik değerinden fazla olduğunda aktif olduğu söylenir.
Örneğin :
Aynı şey sigmoid veya diğer aktivasyon fonksiyonları için de geçerlidir.
"Aktif" terimi çoğunlukla, aktivasyon fonksiyonuna giriş belirli bir eşik değerden daha büyük olduğunda sadece bir değer (0 hariç) veren aktivasyon fonksiyonları hakkında konuşurken kullanılır.
Özellikle ReLU tartışılırken "aktif" terimi kullanılabilir. ReLU, çıkışı 0'dan büyük olduğunda "etkinleştirilir", yani girişi 0'dan büyük olduğunda da etkinleştirilir.
Sigmoid gibi diğer etkinleştirme işlevleri her zaman 0'dan büyük bir değer döndürür ve özel bir eşik değeri yoktur. Bu nedenle, "aktif" terimi burada daha az anlam taşımaktadır.
Onlar hakkında çok az şey bilmemize rağmen, beyindeki nöronların bir tür "aktivasyon eşiği" ile aktivasyon fonksiyonuna benzeyen bir şeyleri var gibi görünüyor.