1
Aktivasyon fonksiyonlarını karıştırdığımda ne olur?
ReLU, sigmoid veya tanhtanh\tanh. Aktivasyon fonksiyonlarını karıştırdığımda ne olur? Kısa süre önce Google'ın (x * sigmoid) Swish etkinleştirme işlevini geliştirdiğini buldum. Aktivasyon fonksiyonunu değiştirerek XOR problemi gibi küçük sinir ağ problemlerinde doğruluğu artırabilir mi?