Geçenlerde Yan LeCuns'in 1x1 konvolüsyonları hakkındaki yorumunu okudum :
Konvolüsyonlu Ağlarda, "tamamen bağlantılı katmanlar" diye bir şey yoktur. Yalnızca 1x1 evrişim çekirdekleri ve tam bir bağlantı tablosu olan evrişim katmanları vardır.
Çok nadiren anlaşılan bir gerçek, ConvNets'in sabit boyutlu bir girişe sahip olması gerekmiyor. Bunları, tek bir çıkış vektörü üreten (uzamsal boyutta olmayan) girişler üzerinde eğitebilir ve daha sonra daha büyük görüntülere uygulayabilirsiniz. Tek bir çıktı vektörünün yerine, çıktı vektörlerinin uzamsal haritasını elde edersiniz. Her vektör, giriş pencerelerini giriş üzerinde farklı konumlarda görür. Bu senaryoda, "tamamen birbirine bağlı katmanlar" gerçekten 1x1 evrişler gibi davranıyor.
Bunun için basit bir örnek görmek istiyorum.
Örnek
Tamamen bağlı bir ağınız olduğunu varsayalım. Sadece bir giriş katmanına ve bir çıkış katmanına sahiptir. Giriş katmanı 3 düğüme, çıkış katmanı 2 düğüme sahiptir. Bu ağ parametreye sahiptir. Daha da somut hale getirmek için, çıktı katmanında ve ağırlık matrisinde bir ReLU aktivasyon işleviniz olduğunu varsayalım.
Yani ağ ile .
Konvolüsyon tabakası aynı olmak için nasıl görünür? LeCun'un "tam bağlantı tablosu" ile anlamı nedir?
Eşdeğer bir CNN elde etmek için sanırım aynı sayıda parametreye sahip olmak zorunda kalacak. Yukarıdan MLP sahip parametreleri.