Çıktı katmanındaki aktivasyon fonksiyonu ile en aza indirilecek objektif fonksiyonu eşleştirmek birçok sinir ağı paketinde standart görünmektedir.
Örneğin, regresyon için kullanılan doğrusal bir çıktı katmanı için, kare şeklinde bir hata objektif fonksiyonuna sahip olmak standarttır (ve genellikle sadece seçimdir). Bir diğer olağan eşleşme, lojistik çıktı ve log kaybı (veya çapraz entropi). Ve yine bir diğeri softmax ve çoklu log kaybı.
Notasyonu kullanarak, etkinleştirme öncesi değeri için (önceki katmanda gerçekleştirilen etkinliğin ağırlık çarpımlarının toplamı), aktivasyon için, eğitim için kullanılan temel hakikat için, çıkış nöron indeksi için.
Doğrusal aktivasyon kare hata ile gider
Sigmoid aktivasyonu mantık / çapraz entropi hedefi ile gider
Softmax aktivasyonu çok sınıflı mantık hedefi ile gider
Bunlar bildiğim şeyler ve umarım hala duymadığım birçok şey var.
Günlük kaybı yalnızca çıktı ve hedefler aralıkta olduğunda işe yarayacak ve sayısal olarak kararlı olacak gibi görünmektedir [0,1]. Bu nedenle, bir lojik objektif fonksiyonu ile doğrusal çıktı katmanını denemek mantıklı olmayabilir. Değerleri ile başa çıkabilen daha genel bir lojik fonksiyon olmadığı sürece aralığın dışında kalanlar?
Bununla birlikte, sigmoid çıktıyı kare şeklinde bir hata hedefi ile denemek o kadar da kötü görünmüyor. Kararlı olmalı ve en azından birleşmelidir.
Bu eşleşmelerin arkasındaki bazı tasarımların, - nerede nesnel fonksiyonun değeridir - geri yayılım için kolaydır. Fakat yine de bu türevi diğer eşleşmeleri kullanarak bulmak mümkün olmalıdır. Ayrıca, çıktı katmanlarında yaygın olarak görülmeyen, ancak tanh
hangi objektif fonksiyonun uygulanabileceği açık olmayan ve mümkün olan başka aktivasyon fonksiyonları da vardır .
Bir sinir ağının mimarisini tasarlarken, "standart dışı" çıkış aktivasyonu ve objektif fonksiyon çiftlerini kullanmanız veya kullanmanız gereken durumlar var mı?