Bu, bir süredir beni şaşırtan küçük bir kavramsal sorudur: Bir sinir ağındaki max-havuz katmanından nasıl geri yayılabiliriz?
Torch 7'nin nn kütüphanesi için bu eğitici yazıda Max Pooling katmanları ile karşılaştım . Kütüphane, gradyan hesaplamasını soyutlar ve derin bir ağın her katmanı için ileri geçişler. Gradyan hesaplamasının bir max-pooling katmanı için nasıl yapıldığını anlamıyorum.
Biliyorum bir giriş olup olmadığını nöron girmeden i tabakasının l , daha sonra δ i l (olarak tanımlanır δ i l = ∂ e ) tarafından verilir: δil=θ
Bu yüzden, maksimum havuzuna tabaka alacak , her zamanki gibi bir sonraki tabakanın sitesindeki; Max-havuzu nöronlar için aktivasyon fonksiyonu girdi olarak (bu maxes, üzerinde) değerlerinin bir vektörde alır ancak bu yana, δ i l artık tek bir sayı, ancak bir vektör (değildir θile ikame edilmesi gerekir∇İçeride ISTV melerin RWMAIWi'nin( { z j l } )). Bundan başka,θ, maksimum fonksiyonu olmak, girişlerine göre türevlenebilir değildir.
Peki .... tam olarak nasıl çalışması gerekir?