Görüntülerin nasıl normalleştirileceğine dair bazı farklılıklar var ancak çoğu bu iki yöntemi kullanıyor gibi görünüyor:
- Tüm görüntüler üzerinde hesaplanan kanal başına ortalamayı çıkarın (örn. VGG_ILSVRC_16_layers )
- Tüm resimler üzerinde hesaplanan piksel / kanala göre çıkarma (örneğin, CNN_S , ayrıca Caffe'nin referans ağına bakınız )
Doğal yaklaşım aklımda her görüntüyü normalleştirmek için olurdu. Güpegündüz çekilen bir görüntü, gece görüntüsünden daha fazla nöronun ateşlenmesine neden olur ve bize zaman zaman bilgi verirken, genellikle kenarlarda mevcut olan daha ilginç özellikleri önemsiyoruz.
Pierre Sermanet 3.3.3'te görüntünün temelinde olacak olan yerel kontrast normalleşmesinin , ancak gördüğüm örnek / öğreticilerin hiçbirinde buna rastlamadığımdan bahsetmektedir. Ayrıca ilginç bir Quora sorusu ve Xiu-Shen Wei'nin görevini de gördüm, ancak yukarıdaki iki yaklaşımı desteklemiyor gibi görünüyorlar.
Tam olarak neyi özlüyorum? Bu bir renk normalleştirme sorunu mu yoksa neden bu kadar çok kişinin bu yaklaşımı kullandığını açıklayan bir makale var mı?