Geri çoğaltma sırasında bir CNN'nin filtre ağırlıklarını DEĞİŞTİRMEMENİN etkisi nedir? MNIST veri seti üzerinde eğitim yaparken sadece tamamen bağlı katman ağırlıklarını değiştirdim ve neredeyse yüzde 99 oranında doğruluk elde ettim.
Geri çoğaltma sırasında bir CNN'nin filtre ağırlıklarını DEĞİŞTİRMEMENİN etkisi nedir? MNIST veri seti üzerinde eğitim yaparken sadece tamamen bağlı katman ağırlıklarını değiştirdim ve neredeyse yüzde 99 oranında doğruluk elde ettim.
Yanıtlar:
Bir CNN'nin evrişimsel katmanlarının ağırlıklarını değiştirmemekle, esasen sınıflandırıcıya (tamamen bağlı katman) rastgele özellikler beslersiniz (yani eldeki sınıflandırma görevi için en uygun özellikler değil ).
MNIST, giriş piksellerini herhangi bir özellik çıkarması olmadan bir sınıflandırıcıya hemen besleyebileceğiniz ve hala 90'larda yüksek puan elde edeceğiniz kadar kolay bir görüntü sınıflandırma görevidir. Bunun yanı sıra, belki de havuz katmanları biraz yardımcı olur ...
Giriş görüntüsünde bir MLP (konv / havuz katmanları olmadan) eğitmeyi deneyin ve nasıl sıralandığını görün. Burada bir MLP (1 gizli ve 1 çıkış tabakası) bir ön işleme / özellik çıkarma olmadan 98 +% ulaştı bir örnektir.
Düzenle:
Ayrıca yazdığım başka bir cevaba da işaret etmek istiyorum , bu da MNIST'in bir görüntü sınıflandırma görevi olarak neden bu kadar kolay olduğu konusunda daha ayrıntılı .