Gradyan Artırma Ağaçları (GBM) ve Adaboost arasındaki farkların sezgisel açıklamaları


48

GBM ile Adaboost arasındaki farkları anlamaya çalışıyorum.

Bunlar şimdiye dek anladım:

  • Hem önceki modelin hatalarından ders alan ve hem de modellerin ağırlıklı toplamını yapan yükseltme algoritmaları vardır.
  • GBM ve Adaboost, kayıp fonksiyonları dışında oldukça benzerdir.

Ancak yine de aralarındaki farklar hakkında bir fikir edinmek benim için zor. Birisi bana sezgisel açıklamalar yapabilir mi?

Yanıtlar:


34

Bu girişin bazı sezgisel açıklamalar sağlayabileceğini öğrendim .

  • Gradyan Arttırmasında 'eksiklikler' (mevcut zayıf öğrencilerin) degradeleri ile tanımlanır .
  • Adaboost'ta 'eksiklikler' yüksek ağırlıklı veri noktaları ile tanımlanmaktadır .

Anladığım kadarıyla, Adaboost'un üssel kaybı, daha kötü yerleştirilmiş örnekler için daha fazla ağırlık veriyor. Neyse, Adaboost, girişte sağlanan Gradient Boost'un geçmişinde gösterildiği gibi, kayıp fonksiyonu açısından özel bir Gradient Boost durumu olarak kabul edilir.

  1. İlk başarılı yükseltme algoritması olan Invent Adaboost [Freund et al., 1996, Freund ve Schapire, 1997]
  2. Adaboost'u özel bir kayıp fonksiyonuyla gradyan iniş olarak formüle edin [Breiman et al., 1998, Breiman, 1999]
  3. Çeşitli kayıp fonksiyonlarının üstesinden gelmek için Adaboost'u Gradient Boosting'e genellendirmek [Friedman et al., 2000, Friedman, 2001]

11

AdaBoost algoritmasının sezgisel bir açıklaması

@ Randel'in aşağıdaki cevabını gösteren mükemmel cevabı üzerine kuralım


  • Adaboost'ta 'eksiklikler' yüksek ağırlıklı veri noktaları ile tanımlanmaktadır.

AdaBoost özet

Gm(x) m=1,2,...,M

G(x)=sign(α1G1(x)+α2G2(x)+...αMGM(x))=sign(m=1MαmGm(x))
  • Nihai tahmin, tüm sınıflandırıcılardan alınan tahminlerin, ağırlıklı oy çoğunluğu ile yapılan bir kombinasyondur.

  • αmGm(x)

  • w1,w2,...,wNm
  • m=1wi=1/N

Bir oyuncak örneği üzerinde AdaBoost

M=10

görüntü tanımını buraya girin

Zayıf öğrencilerin sırasını görselleştirme ve örnek ağırlıkları

m=1,2...,6

görüntü tanımını buraya girin

İlk yineleme:

  • Karar sınırı çok basit (doğrusal) çünkü bunlar zayıf öğrenicilerdir.
  • Tüm noktalar beklendiği gibi aynı boyutta
  • 6 mavi nokta kırmızı bölgededir ve yanlış sınıflandırılmıştır

İkinci yineleme:

  • Doğrusal karar sınırı değişti
  • Daha önce yanlış sınıflandırılmış mavi noktalar şimdi daha büyük (daha büyük örnek ağırlığı) ve karar sınırını etkiledi
  • 9 mavi nokta şimdi yanlış sınıflandırılıyor

Nihai sonuç, 10 tekrardan sonra

αm

([1.041, 0.875, 0.837, 0.781, 1.04, 0.938 ...

Beklenildiği gibi, ilk yineleme, en az yanlış sınıflandırmaya sahip olanı olduğu gibi en büyük katsayısına sahiptir.

Sonraki adımlar

Gradyan yükseltmenin sezgisel bir açıklaması - tamamlanacak

Kaynaklar ve daha fazla okuma:

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.