Bu, önce bazı önemli noktalara dikkat çekmek istediğim ilginç bir soru.
- İki tahminci tutarlıdır
- daha verimlidir p 2daha az varyasyon elde yanaβ^1β^2
- Kayıp fonksiyonları aynı değil
- bir büzülme yöntemi, daha iyi bir tahmin edicinin sonuçlandığı varyasyonu azaltmak için birine uygulanır
- Soru : Başka bir deyişle, büzülme akıllıca uygulanırsa,
daha verimli tahmin ediciler için her zaman daha iyi çalışır mı?
Temel olarak, bir tahmin ediciyi tarafsız tahminci sınıfı gibi belirli bir çerçevede geliştirmek mümkündür. Bununla birlikte, belirttiğiniz gibi, bir kayıp fonksiyonu kuadratik kaybı en aza indirirken diğeri entropiyi en aza indirdiğinden, farklı kayıp fonksiyonları durumu zorlaştırır. Dahası, "her zaman" kelimesini kullanmak çok zordur, çünkü eğer bir tahminci sınıfın en iyisi ise, mantıksal olarak konuşursak daha iyi bir tahmin edemezsiniz.
(Aynı çerçevede) basit bir örnek, iki tahmin edicileri, yani bir köprü (ceza ile regresyon izin normu cezası) ve sürükleyerek (NORM ceza olabilirlik) ve birtakım parametreler seyrek bir dizi β , bir lineer model y = x β + e , hata teriminin normallik, e ~ N ( 0 , σ 2 < ∞ ) , bilinen σ , ikinci dereceden kayıp fonksiyonu (en küçük kare hataları), ve değişkenlerin bağımsızlık x . P = 3 için l p'yi seçelimlpβy=xβ+ee∼N(0,σ2<∞)σxlpp=3birinci tahminci için ve ikinci tahminci için. Daha sonra , daha düşük varyansa sahip daha iyi bir tahminci olan p → 1'i seçerek tahmincileri iyileştirebilirsiniz . Sonra bu örnekte tahminciyi geliştirme şansı vardır.p=2p→1
Dolayısıyla, aynı tahmin ediciler ailesini ve aynı kayıp fonksiyonunu ve varsayımları varsayarsak, sorunuza cevabım evet.