Bir dizi nesneyi n sınıflarına ayırmak için sinir ağını eğitiyorum. Her nesne aynı anda birden fazla sınıfa ait olabilir (çoklu sınıf, çoklu etiket).
Çok sınıflı problemlerde genellikle mse yerine kayıp fonksiyonu olarak softmax ve kategorik çapraz entropinin kullanılması önerildiğini ve nedenini az çok anladığımı okudum.
Çoklu etiket problemim için, her sınıf olasılık diğerinden bağımsız olması gerektiğinden softmax'ı kullanmak hiç mantıklı olmaz. Bu yüzden son katmam girişlerini her sınıf için 0..1 olasılık aralığında ezen sigmoid birimleri.
Şimdi hangi kayıp fonksiyonunu kullanmam gerektiğinden emin değilim. Kategorik crossentropinin tanımına baktığımda, sadece 1 olması gereken nöronların çıktısını göz önünde bulunduracağından ve diğerlerini görmezden geleceğinden, bu soruna iyi uygulanmayacağına inanıyorum.
İkili çapraz entropi daha iyi uyuyor gibi geliyor, ama sadece tek bir çıkış nöronuyla ikili sınıflandırma problemlerinde bahsettiğimi gördüm.
Önemli olması durumunda antrenman için python ve keras kullanıyorum.