“ Uygulamalı Öngörülü Modelleme ” derlemesinde gözden geçiren şöyle diyor :
İstatistiksel öğrenme (SL) pedagojisine sahip olduğum bir eleştiri, farklı modelleme tekniklerinin değerlendirilmesinde hesaplama performansının dikkate alınmamasıdır. Modellerin ayarlanması / test edilmesi için önyükleme ve çapraz validasyon konusundaki vurguları ile SL, oldukça bilgi işlem yoğun. Buna, torbalama ve artırma gibi tekniklere gömülü yeniden örnekleme ekleyin ve büyük veri kümelerinin denetimli öğrenimi için hesaplama cehennemine sahip olursunuz. Aslında, R'nin bellek kısıtlamaları, rastgele ormanlar gibi en iyi performans gösteren yöntemlere uyabilecek modellerin boyutuna oldukça ciddi sınırlar getiriyor. SL, küçük veri setlerine karşı model performansını kalibre etmek için iyi bir iş yapsa da, daha büyük veriler için hesaplama maliyetine karşı performansı anlamak iyi olurdu.
R'nin bellek kısıtlamaları nelerdir ve rastgele ormanlar gibi en iyi performans gösteren yöntemlere uyabilecek modellerin boyutuna ciddi sınırlar getiriyorlar mı?