AdaBoost algoritmasının sezgisel bir açıklaması
@ Randel'in aşağıdaki cevabını gösteren mükemmel cevabı üzerine kuralım
- Adaboost'ta 'eksiklikler' yüksek ağırlıklı veri noktaları ile tanımlanmaktadır.
AdaBoost özet
Gm(x) m=1,2,...,M
G(x)=sign(α1G1(x)+α2G2(x)+...αMGM(x))=sign(∑m=1MαmGm(x))
Bir oyuncak örneği üzerinde AdaBoost
M=10
Zayıf öğrencilerin sırasını görselleştirme ve örnek ağırlıkları
m=1,2...,6
İlk yineleme:
- Karar sınırı çok basit (doğrusal) çünkü bunlar zayıf öğrenicilerdir.
- Tüm noktalar beklendiği gibi aynı boyutta
- 6 mavi nokta kırmızı bölgededir ve yanlış sınıflandırılmıştır
İkinci yineleme:
- Doğrusal karar sınırı değişti
- Daha önce yanlış sınıflandırılmış mavi noktalar şimdi daha büyük (daha büyük örnek ağırlığı) ve karar sınırını etkiledi
- 9 mavi nokta şimdi yanlış sınıflandırılıyor
Nihai sonuç, 10 tekrardan sonra
αm
([1.041, 0.875, 0.837, 0.781, 1.04, 0.938 ...
Beklenildiği gibi, ilk yineleme, en az yanlış sınıflandırmaya sahip olanı olduğu gibi en büyük katsayısına sahiptir.
Sonraki adımlar
Gradyan yükseltmenin sezgisel bir açıklaması - tamamlanacak
Kaynaklar ve daha fazla okuma: