'Zayıf' bir öğrenci (classifer, prediktör, vb.) Göreceli olarak düşük performans gösteren sadece bir tanesidir - doğruluğu şansın üstündedir, ancak çok azdır. Sık sık, ancak her zaman değil, hesaplamanın basit olduğu sonucuna varılmıştır. Zayıf öğrenen, aynı zamanda "güçlü" bir topluluk sınıflandırıcısı oluşturmak için algoritmanın birçok örneğinin birlikte (yükseltme, torbalama vb.) Bir araya getirildiğini önerir.
Orijinal AdaBoost gazetesinde Freund & Schapire tarafından belirtilmiştir:
Belki de bu uygulamaların en şaşırtıcı olanı "artırma" için yeni bir uygulamanın türetilmesi, yani rasgele tahmin etmekten biraz daha iyi performans gösteren "zayıf" bir PAC öğrenme algoritmasının keyfi olarak yüksek doğrulukta bir uygulamaya dönüştürülmesidir. - (Freund ve Schapire, 1995)
ama bu cümlenin aslında bundan daha eski olduğunu düşünüyorum - 1980'lerden Michael Kearns'ın bir dönem ödevi (?!) yazdığını gördüm.
Zayıf Öğrenicinin klasik örneği bir karar ağacı kütüğü, bir seviye karar ağacıdır (1R veya OneR yaygın olarak kullanılan bir başka zayıf öğrenicidir; oldukça benzerdir). Bir SVM'yi zayıf bir performans gösterdiği durumlarda bile 'zayıf bir öğrenci' olarak adlandırmak biraz garip olurdu, ancak tek başına bir karar vericiyi zayıfça öğrenen bir kişi bile şaşırtıcı bir şekilde iyi performans gösterse bile tamamen makul olacaktır.
Adaboost yinelemeli bir algoritmadır ve
T tipik olarak yinelemelerin sayısını veya "turları" belirtir. Algoritma, veriler üzerinde zayıf bir öğrenciyi eğitmek / test etmekle başlar ve her örneği eşit olarak ağırlıklandırır. Yanlış sınıflandırılan örnekler, sonraki tur (lar) için ağırlıklarını artırırken, doğru sınıflandırılanlar ağırlıklarını azaltır.
hakkında büyülü bir şey olduğundan emin değilim . 1995 yazısında, T serbest parametre olarak verilmiştir (yani, kendin ayarladın).T= 10T