Sinir ağında çapraz entropi maliyet fonksiyonu


11

Bu eğitimde bulunan çapraz entropi maliyet fonksiyonuna bakıyorum :

C=1nx[ylna+(1y)ln(1a)]

Tam olarak neyi özetliyoruz? Bitti, tabii ki x , ama y ve a değişmez x . Her x 's bir girdiler olan a . a denklemin üzerindeki paragrafta tüm w 've x ' toplamlarının bir fonksiyonu olarak tanımlanır .

Ayrıca, n , bu belirli nörona girişlerin sayısı olarak tanımlanır, değil mi? "Eğitim verilerinin toplam öğe sayısı" olarak ifade edilir .


Düzenle:

Bunu düşünürken haklı mıyım

C=1nx[ylna+(1y)ln(1a)]

tüm ağ için maliyet fonksiyonu olurken,

C=[ylna+(1y)ln(1a)]

nöronun maliyeti ne olur? Toplam her bir nöronun üzerinde olmamalı mı?

Yanıtlar:


14

Çapraz entropi kaybını şöyle ifade ederim :

L(X,Y)=1ni=1ny(i)lna(x(i))+(1y(i))ln(1a(x(i)))

Burada, eğitim veri kümesindeki girdi örnekleri kümesidir ve Y = { y ( 1 ) , , y ( n ) } karşılık gelen etiket kümesidir bu girdi örnekleri için. Bir ( x ) sinir ağı verilen giriş çıkışını gösterir x .X={x(1),,x(n)}Y={y(1),,y(n)}a(x)x

Her ya da 0 ya da 1 'dir, ve aktivasyon çıkış bir ( x ) genellikle kullanılarak, açık aralığı (0, 1) ile sınırlandırılmıştır lojistik sigmoid . Örneğin, tek katmanlı bir ağ için (lojistik regresyona eşdeğerdir), etkinleştirme bir ( x ) = 1 ile verilir.y(i)a(x) buradaWbir ağırlık matrisidir vebbir sapma vektörüdür. Birden çok katman için etkinleştirme işlevini(x)=1gibibirşeye genişletebilirsiniz.

a(x)=11+eWxb
Wb buradaVvec, birinci katman için ağırlık matrisi ve sapmasıdır vez(x), ağdaki gizli katmanın etkinleştirilmesidir.
a(x)=11+eWz(x)bz(x)=11+eVxc
Vcz(x)

Andrew i'nin makine öğrenimi kursunda oldukça etkili olduğunu düşündüğüm için (i) üst simge kullandım; bazen insanlar örnekleri bir matristeki sütunlar veya satırlar olarak ifade ederler, ancak fikir aynı kalır.


Teşekkürler! Bu, bize tüm ağımızdaki tüm örneklerimiz üzerindeki hatamız için tek bir sayı verecektir. Geri yayılma için bu fonksiyonun kısmi türevini son katmandaki ağırlık matrisine göre bulmam gerekiyor. Bunu nasıl yaparım?
Adam12344

Backprop yapmak tamamen ayrı bir solucan konservesi! Bağlantı verdiğiniz sayfanın bilgi işlem türevleri vb. Bir açıklaması vardır ve stackoverflow ve bu site hakkında backprop hakkında birçok soru vardır. Biraz etrafa bakmayı ve ardından özellikle backprop hakkında ayrı bir soru göndermeyi deneyin.
lmjohns3

Bu, backprop'u anlamak için yararlı olabilir, kanlı ayrıntıda çapraz entropi kaybına sahip dört katmanlı bir sinir ağına sahiptir :) cookedsashimi.wordpress.com/2017/05/06/…
YellowPillow

5

Tam olarak neyi özetliyoruz?

Öğretici aslında oldukça açık:

n

xΣa

a=jwjxj.

Daha sonra aynı öğreticide, çok katmanlı, çok nöronlu bir ağ için maliyet işlevi için bir ifade verir (Denk. 63):

C=1nxj[yjlnajL+(1yj)ln(1ajL)].

xj


İçgörü için teşekkürler, bir soru: tanımladığınız ikincisi kategorik çapraz entropi değil, değil mi?
Tommaso Guerrini

Ayrıca eğitiminde "y bazen 0 ile 1 arasında ara değerler alabilir" dedi ancak verdiği işlevin hepsi y üzerinde ve aktivasyon girişi yoktu. St fonksiyonunda ara değerleri nasıl uygulayabiliriz?
Feras

Nielsen'in tek katmanlı algıyı gösteren öğreticisinde, a = \ sigma (\ sum_ {j} w_j x_j) çünkü çıkış katmanınız için sigmoid etkinleştirme işleviniz var, a = \ sum_ {j} w_j x_j
ARAT
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.