Diyelim ki derinlemesine bir öğrenme model mimarisi ve seçilen bir mini-parti boyutu var. Bu modeli eğitmek için beklenen bellek gereksinimlerini nasıl elde edebilirim?
Örnek olarak, boyut 1000 girişi, 100 boyut 4 tam bağlantılı gizli katmanı ve boyut 10 ek çıkış katmanı olan (tekrarlayan olmayan) bir modeli düşünün. Mini seri boyutu 256 örnektir. CPU ve GPU'daki eğitim sürecinin yaklaşık bellek (RAM) kapladığı alanı nasıl belirler? Herhangi bir fark yaratırsa, modelin TensorFlow ile bir GPU'da eğitildiğini varsayalım (böylece cuDNN kullanarak).