Algoritmaları artırmak için, oldukça iyi geliştiklerini söyleyebilirim. 1995'in başlarında AdaBoost tanıtıldı, bir süre sonra Gradient Boosting Machine (GBM) oldu. Son zamanlarda, doğru, aşırı uyumu ele alan ve birden fazla Kaggle yarışmasının galibi haline gelen XGBoost 2015 civarında piyasaya sürüldü. 2017 yılında LightGBM Microsoft tarafından tanıtıldı, XGBoost'a kıyasla önemli ölçüde daha düşük bir eğitim süresi sunuyor. Ayrıca, CatBoost, kategorik özellikleri ele almak için Yandex tarafından tanıtıldı.
Rastgele Orman 2000'li yılların başında tanıtıldı, ancak buna layık bir halef var mı? Rastgele Ormandan daha iyi bir torbalama algoritması mevcut olsaydı (pratikte kolayca uygulanabilir) Kaggle gibi yerlerde biraz dikkat çekerdi. Ayrıca, neden destekleme daha popüler topluluk tekniği haline geldi, çünkü en uygun tahmin için daha az ağaç oluşturabiliyor musunuz?