Tam olarak yetiştirilmiş bir karar ağacı (yani budanmamış bir karar ağacı) düşünürsek, yüksek varyans ve düşük önyargıya sahiptir.
Torbalama ve Rastgele Ormanlar bu yüksek varyanslı modelleri kullanır ve varyansı azaltmak ve böylece tahmin doğruluğunu arttırmak için bunları birleştirir. Hem Torbalama hem de Rastgele Ormanlar Bootstrap örneklemesi kullanır ve "İstatistiksel Öğrenme Unsurları" nda açıklandığı gibi, bu tek ağaçtaki yanlılığı artırır.
Ayrıca, Rastgele Orman yöntemi her bir düğümde izin verilen değişkenlerin bölünmesini sınırladığından, tek bir rastgele orman ağacının sapması daha da artar.
Bu nedenle, tahmin doğruluğu ancak Torbalama ve Rastgele Ormanlardaki tek ağaçların sapma artışı, varyans azaltımını "abartıyorsa" artar.
Bu beni şu iki soruya götürüyor: 1) Önyükleme örneklemesi ile, (neredeyse her zaman) önyükleme örneğinde aynı gözlemlerden bazılarının olacağını biliyorum. Peki bu neden Torbalama / Rastgele Ormanlardaki münferit ağaçların yanlılığında artışa neden oluyor? 2) Ayrıca, her değişkente ayrılabilecek değişkenler üzerindeki sınır neden Rastgele Ormanlardaki münferit ağaçlarda daha yüksek yanlılığa neden olur?