Torbalamanın ana kullanım durumu, düşük eğilimli modellerin bir araya getirilmesiyle varyansı azaltmaktır. Bu, dönüm noktası makalesinde ampirik olarak çalışıldı " : ve Varyantlarını Arttırılması, Torbalama Oy Sınıflandırma Algoritmaların Ampirik Bir Karşılaştırma Bauer ve Kohavi tarafından" . Genellikle reklamı yapılan şekilde çalışır.
Bununla birlikte, yaygın inanışın aksine, torbalamanın varyansı azaltması garanti edilmez . Daha yeni ve (bence) daha iyi bir açıklama, torbalamanın kaldıraç noktalarının etkisini azalttığıdır. Kaldıraç noktaları, en az kareler regresyonundaki aykırı değerler gibi, ortaya çıkan modeli orantısız olarak etkileyen noktalardır. Kaldıraç noktalarının ortaya çıkan modelleri olumlu etkilemesi nadirdir, ancak bu durumda torbalama performansı azaltır. " Bir göz atın "Grandvalet'in Torbalama etkisini eşitler.
Nihayet sorunuzu cevaplamak için: torbalamanın etkisi büyük ölçüde kaldıraç noktalarına bağlıdır. Torbalamanın doğrusal olarak çanta boyutu açısından hesaplama süresini artırması dışında çok az teorik garanti mevcuttur! Bununla birlikte, hala yaygın olarak kullanılan ve çok güçlü bir tekniktir. Örneğin etiket gürültüsü ile öğrenirken, torbalama daha sağlam sınıflandırıcılar üretebilir .
Rao ve Tibshirani bir Bayesian yorumlanması verdik " modeli ortalama ve seçim için dışı bootstrap yöntemi " :
Bu anlamda, bootstrap dağılımı parametremiz için (yaklaşık) parametrik olmayan, bilgilendirici olmayan bir posterior dağılımı temsil eder. Ancak bu bootstrap dağılımı ağrısız bir şekilde elde edilir - bir önceliği resmi olarak belirtmek zorunda kalmadan ve posterior dağılımdan numune almak zorunda kalmadan. Bu nedenle, bootstrap dağılımını fakir bir adamın "Bayes posterior'u olarak düşünebiliriz.