Potansiyel olarak Langford ve Shapire ekibinden daha fazlasını ele almaya çalışan yeni bir makale: Arttırma Teorisini Kullanarak Sırasıyla Derin ResNet Bloklarını Öğrenme
İlgilenilen kısımlar (Bkz. Bölüm 3):
Önemli fark, artırmanın tahmini bir hipotez topluluğu olması, ResNet ise tahmini özellik gösterimlerinin bir toplamıdır . Bu sorunu çözmek için, bir hipotez modülü oluşturmak üzere her kalan bloğun üstüne bir yardımcı doğrusal sınıflandırıcı . Resmi olarak bir
hipotez modülü olarak tanımlanırΣTt = 0ft( gt( x ) )wto t ( x ) : = W , T , T g t ( x ) ∈ RÖt( x ) : = wTtgt( x ) ∈ R
...
(burada)Öt( x ) = ∑t - 1t'= 0wTtft'( gt'( x ) )
Makale, zayıf modül sınıflandırıcı ve bunun BoostResNet algoritmalarıyla nasıl bütünleştiği hakkında daha ayrıntılı olarak ele alınmaktadır .ht( x )
Bu cevaba biraz daha ayrıntı ekleyerek, tüm güçlendirici algoritmalar bir çeşit [1] şeklinde yazılabilir (p 5, 180, 185 ...):
FT( x ) : = ∑t = 0Tαtht( x )
Burada , zayıf hipotezidir, bazı seçimi için . Farklı yükseltme algoritmalarının farklı yollarla ve .httt hαtαtht
Örneğin AdaBoost [1] (s 5.), ile ağırlıklı hatasını en aza indirmek için kullanır.htϵtαt=12log1−ϵtϵt
Öte yandan, gradyan artırma ayarında [1] (s 190.), ve en üst düzeye çıkaran seçilir. seçilir (öğrenme oranı vb. olarak)ht∇L(Ft−1(x))⋅htαt>0
Lemma 3.2 altındaki [2] 'de olduğu gibi, derinlik- ResNet'in çıktısının olduğu gösterilmiştir.TF(x)
F(x)∝∑t=0Tht(x)
bu, artırma ve yeniden başlatma arasındaki ilişkiyi tamamlar. Makale [2], formuna girmek için yardımcı doğrusal katman eklemeyi önermektedir , bu da BoostResNet algoritmasına ve bununla ilgili bazı tartışmalara yol açarFT(x):=∑Tt=0αtht(x)
[1] Robert E. Schapire ve Yoav Freund. 2012. Artırma: Temeller ve Algoritmalar. MIT tuşuna basın. p 5, 180, 189
[2] Furong Huang, Ürdün Kül, John Langford, Robert Schapire: Artırıcı Teori kullanarak Sırasıyla Derin ResNet Bloklarını Öğrenme, ICML 2018