2
ReLU neden bir aktivasyon fonksiyonu olarak kullanılır?
Aktivasyon fonksiyonları, tipin doğrusal çıktısında doğrusal olmayanları tanıtmak için kullanılır w * x + b bir nöral ağdaki . Hangi sigmoid gibi aktivasyon fonksiyonları için sezgisel olarak anlayabiliyorum. Backpropagation sırasında ölü nöronlardan kaçınan ReLU'nun avantajlarını anlıyorum. Ancak, çıktı doğrusal ise ReLU'nun aktivasyon fonksiyonu olarak neden kullanıldığını anlayamıyorum? Eğer doğrusallık getirmezse, …