Global max havuzlama katmanı nedir ve maxpooling katmanına göre avantajı nedir?


Yanıtlar:


69

Global maksimum havuzlama = havuz boyutuna sahip normal maksimum havuzlama katmanı girişin boyutuna eşittir (eksi filtre boyutu + 1, kesin). Bunun MaxPooling1Dbir pool_lengthtartışma aldığını görebilirsiniz , oysa GlobalMaxPooling1Dolmaz.

Maksimum havuzu tabakasının giriş ise, örneğin, , Toplam en havuzu çıkışları 5 , havuz boyutu sıradan maksimum havuzu tabakası 3 çıkışlarına eşit ise 2 , 2 , 5 , 5 , 5 (adımda 1 olduğunu varsayarak).0,1,2,2,5,1,252,2,5,5,5

Bu kodda görülebilir :

class GlobalMaxPooling1D(_GlobalPooling1D):
    """Global max pooling operation for temporal data.
    # Input shape
        3D tensor with shape: `(samples, steps, features)`.
    # Output shape
        2D tensor with shape: `(samples, features)`.
    """

    def call(self, x, mask=None):
        return K.max(x, axis=1)

Doğal dil işleme gibi bazı alanlarda, genel maksimum havuzlamanın kullanılması yaygındır. Bilgisayarla görme gibi diğer bazı alanlarda, küresel olmayan bir maksimum havuz kullanmak yaygındır.


4
Buraya küresel ortalama havuzlamayı (GAP) aramak için geldim, ancak basit ama çok etkili bir örneğinizden GAP'ın ne yaptığını tahmin edebilirim :)
josh

Bu çok kısa cevap için teşekkür ederim. +1. Verdiğiniz küçük örnek, Global Max Pooling'in ne yaptığını gerçekten anlamamı sağlayan şey.
rayryeng - Monica 19:17

13

Küresel ortalama havuzlamayı (GAP) öneren bu makalede açıklandığı gibi :

Geleneksel evrişimsel sinir ağları, evrenin alt tabakalarında evrişim gerçekleştirir. Sınıflandırma için, son evrişimli katmanın özellik haritaları vektörleştirilir ve tamamen bağlı katmanlara beslenir, ardından softmax lojistik regresyon katmanı izlenir. Bu yapı, evrişimli yapıyı geleneksel sinir ağı sınıflandırıcıları ile köprülemektedir. Evrişimsel katmanları özellik çıkarıcılar olarak ele alır ve elde edilen özellik geleneksel bir şekilde sınıflandırılır.

Bununla birlikte, tam olarak bağlanmış katmanlar aşırı donmaya eğilimlidir, bu nedenle genel ağın genelleme yeteneğini engeller. Bırakma, Hinton ve arkadaşları tarafından, aktivasyonların yarısını antrenman sırasında tamamen bağlı katmanlara rasgele ayarlayan bir düzenleyici olarak önerilmiştir. Genelleme kabiliyetini geliştirmiştir ve büyük ölçüde fazla uyumu engellemektedir.

Bu yazıda, CNN'deki geleneksel tamamen birbirine bağlı katmanları değiştirmek için küresel ortalama havuzlama adı verilen başka bir strateji öneriyoruz. Buradaki fikir, son mlpconv katmanındaki sınıflandırma görevinin her ilgili kategorisi için bir özellik haritası oluşturmaktır. Özellik haritalarının üstüne tamamen bağlı katmanlar eklemek yerine, her özellik haritasının ortalamasını alırız ve elde edilen vektör doğrudan softmax katmanına beslenir. Tamamen birbirine bağlı katmanlar üzerinde küresel ortalama havuzlamanın bir avantajı, özellik haritaları ve kategoriler arasında yazışmalar uygulayarak evrişim yapısına daha doğal olmasıdır. Böylece özellik haritaları kolayca kategori güven haritaları olarak yorumlanabilir. Diğer bir avantaj ise, küresel ortalama havuzda optimize edilecek bir parametrenin bulunmamasıdır, bu nedenle bu katmana fazla uyumu önlenir. Ayıca, Küresel ortalama havuzlama mekansal bilgiyi özetlemektedir, bu nedenle girdilerin mekansal çevirileri daha sağlamdır. Küresel ortalama havuzlamayı, özellik haritalarını kavramların (haritaların) güven haritaları olarak açıkça uygulanmasını sağlayan yapısal bir düzenleyici olarak görebiliriz. Bu, mlpconv katmanları ile mümkün kılınır, çünkü güvenilirlik haritalarına GLM'lerden daha iyi yaklaşırlar.

Düzenleme: @MaxLawnboy tarafından önerildiği gibi, aynı konuyla ilgili başka bir makale .


Tüm CNN modelleri hakkında bir başka makale arxiv.org/pdf/1412.6806v3.pdf
Maxim Mikhaylov

Teşekkürler @ MaxLawnboy, eklemek için cevabı düzenleyeceğim.
Tshilidzi Mudau
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.