Kısacası, evrişim boyutlarının sayısı hakkında özel bir şey yoktur. Bir soruna uyuyorsa, evrişimin herhangi bir boyutu düşünülebilir.
Boyut sayısı, çözülmekte olan sorunun bir özelliğidir. Örneğin, ses sinyalleri için 1D, görüntüler için 2D, filmler için 3D. . .
Boyutların sayısını kısaca göz ardı ederek, aşağıdakiler, belirli veri türleriyle uğraşırken, tamamen bağlı modellerle karşılaştırıldığında, evrişimli bir sinir ağının (CNN) güçlü yanları olarak düşünülebilir :
Evrişimin işlediği her bir konum için paylaşılan ağırlıkların kullanılması, tam bağlantılı ağ üzerinden işlenen verilere kıyasla, öğrenilmesi gereken parametre sayısını önemli ölçüde azaltır.
Paylaşılan ağırlıklar bir çeşit düzenlileştirmedir.
Bir evrişimsel modelin yapısı, verilerdeki yerel ilişkiler hakkında güçlü varsayımlar yapar, bu da gerçek olduğunda soruna iyi bir uyum sağlar.
3.1 Yerel modeller iyi tahmin verileri sağlar (ve / veya daha yüksek katmanlarda daha karmaşık tahmin modellerine faydalı bir şekilde birleştirilebilir)
3.2 Verilerde bulunan örüntü türleri birden fazla yerde bulunabilir. Farklı bir veri noktası kümesinde aynı kalıbı bulmak anlamlıdır.
CNN'lerin bu özellikleri boyut sayısından bağımsızdır. Tek boyutlu CNN'ler bir boyuttaki desenlerle çalışır ve sabit uzunluklu sinyaller üzerinden sinyal analizinde yararlı olma eğilimindedir. Örneğin, ses sinyallerinin analizi için iyi çalışırlar. Ayrıca bazı doğal dil işlemleri için - farklı dizi uzunluklarına izin veren tekrarlayan sinir ağları, özellikle LSTM veya GRU gibi bellek kapısı düzenlemelerine sahip olanlar için daha uygun olabilir. Yine de bir CNN'nin yönetimi daha kolay olabilir ve girişi sabit uzunlukta olacak şekilde yerleştirebilirsiniz.