Aslında "3B" tekniklerinden birine dayanır: torbalama, artırma veya karıştırma.
Torbalamada, farklı nesne alt kümeleri üzerinde çok sayıda sınıflandırıcı eğitiyorsunuz ve cevapları ortalama olarak regresyon ve sınıflandırma için oylama için birleştiriyorsunuz (daha karmaşık durumlar için başka seçenekler de var, ancak atlayacağım). Oy sınıflandırmaları / varyansları, hata sınıflandırması olarak yorumlanabilir, çünkü bireysel sınıflandırıcılar genellikle bağımsız kabul edilir. RF aslında bir torbalama topluluğudur.
Arttırmak daha geniş bir yöntem ailesidir, ancak asıl mesele, birincisinin kalıntıları üzerinde bir sonraki sınıflandırıcı inşa etmenizdir, bu şekilde (teoride) giderek daha ince etkileşimleri vurgulayarak doğruluğu aşamalı olarak artırır. Bu nedenle tahminler genellikle bunları toplayarak birleştirilir, x'deki bir fonksiyonun değerini x için Taylor serisinin elemanlarının değerlerini toplayarak hesaplamak gibi.
En popüler sürümler (Stokastik) Gradient Boosting (güzel matematiksel temeli ile) ve AdaBoost (iyi bilinen, aslında GB'nin özel bir vakası). Bütüncül bir perspektiften bakıldığında, karar ağacı önemsiz pivot sınıflandırıcılarının artmasıdır.
Harmanlama, sınıflandırıcıları yerleştirme fikridir, yani bir sınıflandırıcıyı diğer sınıflandırıcıların tahminlerinden oluşan bir bilgi sistemi üzerinde çalıştırmaktır. Bu nedenle, çok değişken bir yöntemdir ve kesinlikle tanımlanmış bir algoritma değildir; çok sayıda nesne gerektirebilir (çoğu durumda "blender" sınıflandırıcısı, utanç verici fazlalığı önlemek için kısmi sınıflandırıcıları oluşturmak için kullanılmayan bir dizi nesne üzerinde eğitilmelidir).
Kısmi sınıflandırıcıların tahminleri, blender tarafından tahmin edilen bir bilgi sistemine dönüştürülerek açık bir şekilde birleştirilir.