«bias-variance-tradeoff» etiketlenmiş sorular

7
Bire bir çıkışta yanlılık ve varyans vs K-kat çapraz doğrulama
Farklı çapraz doğrulama yöntemleri, model varyansı ve önyargı açısından nasıl karşılaştırılır? Sorumu kısmen bu konuya göre motive ediyor: katlı çapraz onaylamada en uygun kıvrım sayısı : bir kez dışarıda bırakılan CV her zaman en iyi seçenek midir? KKK. Buradaki cevap, bir kez dışarı bırakılan çapraz doğrulama ile öğrenilen modellerin normal …

2
-kat çapraz onaylamada optimum kıvrım sayısı : bir-bir-dışa CV bırakma her zaman en iyi seçenek midir?
Hesaplama gücü hususları bir yana, çapraz onaylamada katlanma sayısının arttırılmasının daha iyi model seçimi / onaylamaya yol açtığına inanmak için herhangi bir sebep var mı (yani kat sayısı arttıkça daha iyi)? Tartışmayı aşırı uç noktaya götürmek, dışarıda bırakmayı bırakma çapraz doğrulama mutlaka -katlı çapraz doğrulamadan daha iyi modellere yol açar …

2
Önyargı-varyans tradeoff türevini anlama
İstatistiksel öğrenmenin unsurlarının önyargı-varyans dengesi bölümünü okuyorum ve 29. sayfadaki formülde şüphe duyuyorum. Veriler, bir modelden , rasgele olduğu beklenen değere sahip sayı ve Varyans . Modelin hatanın beklenen değeri olsun burada öngörülmesi olup eden öğrencinin. Kitaba göre hata Y=f(x)+ϵY=f(x)+ϵ Y = f(x)+\epsilonε = E [ ε ] = 0 …

2
Önyargı-varyans tradeoff hakkında soru
Önyargı-varyans dengesini, kestiricinin önyargısı ile modelin önyargısı arasındaki ilişkiyi ve kestiricinin varyansı ile modelin varyansı arasındaki ilişkiyi anlamaya çalışıyorum. Bu sonuçlara geldim: Tahmincinin önyargısını ihmal ettiğimizde verileri tersine çevirme eğilimindeyiz, yani sadece modelin varyansını ihmal eden modelin yanlılığını en aza indirmeyi amaçladığımızda tahmin edicinin önyargısı da) Tam tersine, tahmin edicinin …

2
Kement ile karşılaştırıldığında neden en iyi altküme seçimi tercih edilmiyor?
İstatistiksel öğrenme kitabının Unsurları'nda en iyi altküme seçimini okuyorum. 3 tahmin edicim , 2 3 = 8 altkümesi oluştururum:x1,x2,x3x1,x2,x3x_1,x_2,x_323=823=82^3=8 Tahmini olmayan alt küme öngörücü ile alt küme x1x1x_1 öngörücülü alt küme x2x2x_2 öngörücülü alt küme x3x3x_3 öngörücülü alt küme x1,x2x1,x2x_1,x_2 öngörücülü alt küme x1,x3x1,x3x_1,x_3 öngörücülü alt küme x2,x3x2,x3x_2,x_3 öngörücülü alt …

1
Doğrusal regresyonun sapma-varyans ayrışmasında varyans terimi
'İstatistiksel Öğrenmenin Unsurları' nda, doğrusal modelin sapma-varyans ayrışması ifadesi burada gerçek hedef fonksiyonudur, , modelindeki rastgele hatanın varyansıdır ve lineer tahmin olan .Er r (x0) =σ2ε+ E[ f(x0) - Ef^(x0)]2+ | | h (x0) ||2σ2ε,Err(x0)=σϵ2+E[f(x0)−Ef^(x0)]2+||h(x0)||2σϵ2,Err(x_0)=\sigma_\epsilon^2+E[f(x_0)-E\hat f(x_0)]^2+||h(x_0)||^2\sigma_\epsilon^2,f(x0)f(x0)f(x_0)σ2εσϵ2 \sigma_\epsilon^2y= f( x ) + ϵy=f(x)+ϵy=f(x)+\epsilonf^( x )f^(x)\hat f(x)f( x )f(x)f(x) Varyans terimi burada …

4
Doğrusal bir model takıldıktan sonra, takılan artıkların yanlılık ve varyansa ayrıştırılması mümkün müdür?
Veri noktalarını ya daha karmaşık bir modele ya da daha karmaşık bir modele ihtiyaç duymadan sınıflandırmak istiyorum. Şu anki düşüncem, tüm verileri basit bir doğrusal modele uydurmak ve bu sınıflandırmayı yapmak için artıkların boyutunu gözlemlemektir. Daha sonra hataya olan önyargı ve sapma katkıları hakkında biraz okuma yaptım ve doğrudan önyargı …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.