NOT: Bu hesaplamaları spekülatif yaptım, bu yüzden bazı hatalar içeri girmiş olabilir. Düzeltmek için lütfen bu tür hataları bildirin.
Genel olarak herhangi bir CNN'de maksimum eğitim süresi, Tam Bağlantılı Katmandaki hataların Geri Yayılımına gider (görüntü boyutuna bağlıdır). Ayrıca maksimum bellek de onlar tarafından işgal edilir. İşte Stanford'dan VGG Net parametreleri hakkında bir slayt:
Tamamen bağlı katmanların parametrelerin yaklaşık% 90'ına katkıda bulunduğunu açıkça görebilirsiniz. Böylece maksimum hafıza onlar tarafından işgal edilir.
( 3 ∗ 3 ∗ 3 )( 3 ∗ 3 ∗ 3 )224 ∗ 224224 ∗ 224 ∗ ( 3 ∗ 3 ∗ 3 )64224 ∗ 22464 ∗ 224 ∗ 224 ∗ ( 3 ∗ 3 ∗ 3 ) ≈ 87 ∗ 106
56 ∗ 56 ∗ 25656 ∗ 56( 3 ∗ 3 ∗ 256 )56 ∗ 56256 ∗ 56 ∗ 56 ∗ ( 3 ∗ 3 ∗ 256 ) ≈ 1850 ∗ 106
s t r i de = 1
c h a n n e l so u t p u t∗ ( p i x e l O u t p u th e i gh t* P i x E l O u t p u tw i dt h)∗ ( fi l t e rh e i gh t∗ fi l t e rw i dt h∗ c h a n n e l sben n p u t)
Hızlı GPU'lar sayesinde bu büyük hesaplamaları kolayca halledebiliyoruz. Ancak FC katmanlarında tüm matrisin yüklenmesi gerekir, bu da genellikle evrişimli katmanlar için geçerli olmayan bellek sorunlarına neden olur, bu nedenle evrişimli katmanların eğitimi hala kolaydır. Ayrıca tüm bunlar CPU'nun RAM'ine değil, GPU belleğine yüklenmelidir.
Ayrıca AlexNet'in parametre çizelgesi:
Ve burada çeşitli CNN mimarilerinin performans karşılaştırması:
CNN mimarilerinin köşe ve cephelerini daha iyi anlamak için Stanford Üniversitesi'nden CS231n Ders 9'a göz atmanızı öneririm .