Zar katsayısı veya benzer IoU metriği üzerinde çapraz entropi kullanmanın zorlayıcı bir nedeni degradelerin daha iyi olmasıdır.
Logitlerle çapraz-entropinin gradyanları gibi bir şeydir , burada , softmax çıkışlarıdır ve t , hedefdir . Bu arada, zar katsayısını farklı bir formda yazmaya çalışırsak: \ frac {2pt} {p ^ 2 + t ^ 2} veya \ frac {2pt} {p + t} , p de elde edilen degradeler çok daha çirkindir. : \ frak {2t ^ 2} {(p + t) ^ 2} ve \ frac {2t (t ^ 2-p ^ 2)} {(p ^ 2 + t ^ 2) ^ 2} . Hem dava hayal etmek kolaydır p ve t küçüktür ve degrade bazı büyük değere havaya uçuruyor. Genel olarak, eğitimin daha dengesiz hale gelmesi muhtemel görünüyor.p−tpt2ptp2+t22ptp+tp2t2(p+t)22t(t2−p2)(p2+t2)2pt
İnsanların zar katsayısı veya IoU'yu doğrudan kullanmaya çalışmasının temel nedeni, asıl hedefin bu ölçümleri maksimize etmektir ve çapraz entropi, sadece geri yayılım kullanarak maksimize etmek için daha kolay olan bir proxy'dir. Ayrıca, Dice katsayısı, sınıftaki dengesizlik problemlerini tasarım ile daha iyi yapar:
Bununla birlikte, sınıf dengesizliği tipik olarak basitçe her sınıfa zarar çarpanları atamak suretiyle halledilir, öyle ki ağ nadiren görünen bir sınıfı görmezden gelmek için oldukça belirgindir, bu nedenle Zar katsayısının bu durumlarda gerçekten gerekli olduğu açık değildir.
Zar katsayısını kullanmak için gerçekten zorlayıcı bir neden olmadıkça, eğitim segmentasyon ağları için standart kayıp gibi görünen çapraz entropi kaybıyla başlayacağım.