Sanırım sizi şaşırtan birkaç şey var, ilk önce.
x[n]h[n]x[n]h[n]y[n]=(x⋆h)[n]
y[ n ] = ∑m = - ∞∞x [ m ] sa [ n - m ]
Yukarıdakiler tek boyutlu sinyaller içinse, ancak aynı sadece iki boyutlu sinyaller olan görüntüler için söylenebilir. Bu durumda, denklem şöyle olur:
benn e w[ r , c ] = ∑u = - ∞∞Σv = - ∞∞beno l d[ u , v ] k [ r - u , c - v ]
Resimli olarak, olan budur:
Her halükarda, akılda tutulması gereken şey , aslında bir Derin Sinir Ağı (DNN) eğitimi sırasında öğrenilen çekirdeğin olmasıdır . Bir çekirdek, girdilerinizi birleştirdiğiniz şey olacaktır. DNN çekirdeği öğrenecek, böylece görüntünün (veya önceki görüntünün) hedef hedefinizin kaybını azaltmak için iyi olacak belirli yönlerini ortaya çıkaracaktır.
Bu anlaşılması gereken ilk önemli nokta: Geleneksel olarak insanlar çekirdek tasarladı , ancak Derin Öğrenme'de ağın en iyi çekirdeğin ne olması gerektiğine karar vermesine izin veriyoruz. Ancak belirttiğimiz tek şey çekirdek boyutlarıdır. (Buna hiperparametre denir, örneğin 5x5 veya 3x3, vb.).