«sigmoid-curve» etiketlenmiş sorular

4
Tanh neden bir aktivasyon işlevi olarak neredeyse her zaman sigmoidlerden daha iyidir?
Andrew Ng'un Yapay Sinir Ağları ve Coursera'daki Derin Öğrenme kursunda kullanmanın neredeyse her zaman kullanmanın tercih edildiğini söylüyor .tanhtanhtanhsigmoidsigmoidsigmoid O verir nedeni çıkışları kullanarak olmasıdır daha etrafında 0 ziyade merkezi 'ın 0.5, ve bu 'biraz daha kolay bit sonraki katman için öğrenme yapar'.tanhtanhtanhsigmoidsigmoidsigmoid Aktivasyonun çıkış hızını merkezlemek neden öğreniyor? Sanırım …

3
Gizli katman nöronları olarak Relmo vs Sigmoid Softmax
Tensorflow tarafından yalnızca bir gizli katmana sahip basit bir Sinir Ağı ile oynuyordum ve sonra gizli katman için farklı aktivasyonlar denedim: relu sigmoid Softmax (peki, genellikle softmax son katmanda kullanılır ..) Relu en iyi tren doğruluğunu ve doğrulama doğruluğunu verir. Bunu nasıl açıklayacağımdan emin değilim. Relu’nun gradyan-yok oluşu gibi seyreklik …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.