... beklenen [kare hatası] kaybı kare şeklinde bir önyargı terimine (ortalama tahminlerin gerçek modelden ne kadar uzak olduğunu açıklar), bir varyans terimini (tahminlerin ortalamanın etrafına yayılmasını açıklayan) ayrıştırılabilir ve bir gürültü terimi (verilerin gerçek gürültüsünü verir).
Kare hata kaybı ayrışmasına bakıldığında
Sadece iki terim görüyorum: biri önyargı için, diğeri tahmin edicinin veya yordayıcının varyansı için, . Beklenen kayıpta ek gürültü terimi yoktur. Değişkenlik, örneğin kendisinin değil, değişkenliğidir .
Eθ[(θ−δ(X1:n))2]=(θ−Eθ[δ(X1:n)])2+Eθ[(Eθ[δ(X1:n)]−δ(X1:n))2]
δ(X1:n)δ(X1:n)
- Eğilim-varyans ayrışması, kare kaybı dışındaki kayıp fonksiyonları ile gerçekleştirilebilir mi?
Kare yanlılık + varyans ayrışımı [ve bunu öğretme şeklim] hakkındaki yorumum, bunun Pythagore Teoreminin istatistiksel eşdeğeri, yani bir tahminci ile belirli bir kümedeki bir nokta arasındaki kare mesafesinin kare mesafesinin toplamı olduğudur. bir tahminci ile küme arasında, artı kümedeki dikey projeksiyon ile kümenin içindeki nokta arasındaki kare mesafesi. Belirli bir model veri kümesi için bir mesafeye dayalı herhangi bir kayıp, beklenen kaybı tüm modellerde minimum olan birden fazla model var mı ve eğer öyleyse, bu, verimi veren farklı önyargı ve varyans kombinasyonlarının olabileceği anlamına mı geliyor? aynı minimum dikey projeksiyon kaybı, yani bir iç ürün, yani esasen Hilbert uzayları, bu ayrışmayı tatmin eder.
- Belirli bir model veri kümesi için, beklenen kaybı tüm modellerde minimum olan birden fazla model var mı ve eğer öyleyse, bu, aynı minimum beklenen kaybı veren farklı yanlılık ve varyans kombinasyonlarının olabileceği anlamına mı geliyor?
Soru belirsiz: Modeller üzerinden minimum olarak, demek istiyorsan
, İstatistiksel modeller ve buna bağlı olarak sürekli bir kayıp (veya risk) riski olan ilişkili kararlar . Örneğin, Normal ortalamanın MLE'sini ele alalım.
minθEθ[(θ−δ(X1:n))2]
- Gerçek modeli bilmiyorsanız önyargıları nasıl hesaplayabilirsiniz?
Genel anlamda, önyargı, varsayılan dağılım ailesi içindeki gerçek model ile en yakın model arasındaki mesafedir. Gerçek model bilinmiyorsa, önyargı bootstrap ile tespit edilebilir.
- Beklenen kayıptan ziyade önyargı veya sapmayı en aza indirmenin daha anlamlı olduğu durumlar var mı (kare önyargı ve sapma toplamı)?
Gibi başka bir kayıp fonksiyonunu dikkate
sıfıra
iterken değerlendirmenin çoğunu önyargıya koyarken sonsuza geçirir sapmaya odaklanın.
(θ−Eθ[δ(X1:n)])2+α[(Eθ[δ(X1:n)]−δ(X1:n))2]0<α
αα