«regularization» etiketlenmiş sorular

5
Bir bırakma katmanı eklemek, bırakmanın modeldeki bazı nöronları bastırdığı düşünüldüğünde neden derin / makine öğrenme performansını iyileştirir?
Bazı nöronların çıkarılması daha iyi bir model ile sonuçlanıyorsa, neden daha az katman ve daha az nöron içeren daha basit bir sinir ağı kullanmıyorsunuz? Neden başlangıçta daha büyük, daha karmaşık bir model oluşturmalı ve daha sonra parçalarını bastırmalısınız?

2
Neden L2 üzerinde L1 düzenlenmesi kullanılıyor?
Kayıp fonksiyonu kullanarak doğrusal regresyon modeli yürütmek, neden kullanmalıyım? L1L1L_1 onun yerine L2L2L_2 regularization? Aşırı takmayı önlemede daha iyi mi? Deterministik mi (yani her zaman benzersiz bir çözüm)? Özellik seçiminde daha iyi mi (çünkü seyrek modeller üretmek)? Ağırlıklar özellikler arasında dağılıyor mu?

3
Yapay sinir ağlarında düzenleyici yöntem seçme
Sinir ağlarını eğitirken, ağı düzenli hale getirmenin en az 4 yolu vardır: L1 Düzenleme L2 Düzenleme Bırakmak Toplu Normalleştirme artı tabii ki ağırlık paylaşımı ve bağlantı sayısının azaltılması gibi, en katı anlamda düzenleyici olmayabilecek diğer şeyler. Peki bu düzenleme yöntemlerinden hangisinin kullanılacağını nasıl seçeriz? "Her şeyi deneyin ve neyin işe …

2
Ayrılmayı ve diğer düzenlemeleri inceleyen çalışmalar var mı?
Tercihen farklı alanlarda (veya en azından farklı veri kümelerinde) nöral ağlar için düzenleme yöntemlerinin farklılıklarını gösteren yayınlanmış makaleler var mı? Soruyorum çünkü şu anda çoğu insanın bilgisayar görüşünde düzenlileştirme için sadece bırakma hissi verdiğini hissediyorum. Farklı düzenleme yöntemleri kullanmak için bir neden olup olmadığını kontrol etmek istiyorum.
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.