Önyargı-varyans ayrışması


13

Bishop'un Örüntü Tanıma ve Makine Öğreniminin 3.2. Bölümünde , bir kare kaybı fonksiyonu için beklenen kaybın kare şeklinde bir önyargı terimine ayrılabileceğini belirten sapma-varyans ayrışmasını tartışır (bu, ortalama tahminlerin doğrudan ne kadar uzak olduğunu açıklar) model), bir varyans terimi (tahminlerin ortalamanın etrafına yayılmasını tanımlar) ve bir gürültü terimi (verilerin gerçek gürültüsünü verir).

  1. Eğilim-varyans ayrışması, kare kaybı dışındaki kayıp fonksiyonları ile gerçekleştirilebilir mi?
  2. Belirli bir model veri kümesi için, beklenen kaybı tüm modellerde minimum olan birden fazla model var mı ve eğer öyleyse, bu, aynı minimum beklenen kaybı veren farklı yanlılık ve varyans kombinasyonlarının olabileceği anlamına mı geliyor?
  3. Eğer bir model düzenli hale getirmeyi içeriyorsa, önyargı, varyans ve düzenli hale getirme katsayısı arasında matematiksel bir ilişki var mı?λ
  4. Gerçek modeli bilmiyorsanız önyargıları nasıl hesaplayabilirsiniz?
  5. Beklenen kayıptan ziyade önyargı veya sapmayı en aza indirmenin daha anlamlı olduğu durumlar var mı (kare önyargı ve sapma toplamı)?

Yanıtlar:


3

... beklenen [kare hatası] kaybı kare şeklinde bir önyargı terimine (ortalama tahminlerin gerçek modelden ne kadar uzak olduğunu açıklar), bir varyans terimini (tahminlerin ortalamanın etrafına yayılmasını açıklayan) ayrıştırılabilir ve bir gürültü terimi (verilerin gerçek gürültüsünü verir).

Kare hata kaybı ayrışmasına bakıldığında Sadece iki terim görüyorum: biri önyargı için, diğeri tahmin edicinin veya yordayıcının varyansı için, . Beklenen kayıpta ek gürültü terimi yoktur. Değişkenlik, örneğin kendisinin değil, değişkenliğidir .

Eθ[(θδ(X1:n))2]=(θEθ[δ(X1:n)])2+Eθ[(Eθ[δ(X1:n)]δ(X1:n))2]
δ(X1:n)δ(X1:n)
  1. Eğilim-varyans ayrışması, kare kaybı dışındaki kayıp fonksiyonları ile gerçekleştirilebilir mi?

Kare yanlılık + varyans ayrışımı [ve bunu öğretme şeklim] hakkındaki yorumum, bunun Pythagore Teoreminin istatistiksel eşdeğeri, yani bir tahminci ile belirli bir kümedeki bir nokta arasındaki kare mesafesinin kare mesafesinin toplamı olduğudur. bir tahminci ile küme arasında, artı kümedeki dikey projeksiyon ile kümenin içindeki nokta arasındaki kare mesafesi. Belirli bir model veri kümesi için bir mesafeye dayalı herhangi bir kayıp, beklenen kaybı tüm modellerde minimum olan birden fazla model var mı ve eğer öyleyse, bu, verimi veren farklı önyargı ve varyans kombinasyonlarının olabileceği anlamına mı geliyor? aynı minimum dikey projeksiyon kaybı, yani bir iç ürün, yani esasen Hilbert uzayları, bu ayrışmayı tatmin eder.

  1. Belirli bir model veri kümesi için, beklenen kaybı tüm modellerde minimum olan birden fazla model var mı ve eğer öyleyse, bu, aynı minimum beklenen kaybı veren farklı yanlılık ve varyans kombinasyonlarının olabileceği anlamına mı geliyor?

Soru belirsiz: Modeller üzerinden minimum olarak, demek istiyorsan , İstatistiksel modeller ve buna bağlı olarak sürekli bir kayıp (veya risk) riski olan ilişkili kararlar . Örneğin, Normal ortalamanın MLE'sini ele alalım.

minθEθ[(θδ(X1:n))2]
  1. Gerçek modeli bilmiyorsanız önyargıları nasıl hesaplayabilirsiniz?

Genel anlamda, önyargı, varsayılan dağılım ailesi içindeki gerçek model ile en yakın model arasındaki mesafedir. Gerçek model bilinmiyorsa, önyargı bootstrap ile tespit edilebilir.

  1. Beklenen kayıptan ziyade önyargı veya sapmayı en aza indirmenin daha anlamlı olduğu durumlar var mı (kare önyargı ve sapma toplamı)?

Gibi başka bir kayıp fonksiyonunu dikkate sıfıra iterken değerlendirmenin çoğunu önyargıya koyarken sonsuza geçirir sapmaya odaklanın.

(θEθ[δ(X1:n)])2+α[(Eθ[δ(X1:n)]δ(X1:n))2]0<α
αα

OP'nin ifade ettiği gürültü terimi, tahmin edicinin bir parametre için değil , (bağımsız) gürültünün olduğu varsayıldığı modelindeki işlevi için olmasıdır. sıfır ortalama ve varyans . içinde önce sonra ekleme ve çıkarma , söz konusu ayrışmafY=f(X)+ϵϵσϵf(X)E[f^(X)]E[(Yf(X))2|X=x]σϵ2+Bias2f^(x)+Varf^(x)
Miguel

Bu, gerçekçi bir varsayım gibi görünmeyen bağımsız olduğunu varsayar . f^ϵ
Xi'an

Hmm, elbette haklısın. Ama bence sorun özensiz türevimin bir eseri. Hastie & Tibshirani'nin ESLII
Miguel

@Miguel: Aslında epsilon'un X'den bağımsız olduğunu varsayıyoruz , . Şahsen ESL'nin (ve diğerlerinin) türetilmesinin titiz olmadığını, dolayısıyla kafa karıştırıcı olduğunu düşünüyorum. Prof Mostafa'nın "Verilerden öğrenme" deki türevi, aradığınız şey veya bu gönderideϵf^
bulunması gerekir
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.