Bayes tahmin edicilerinin karşılaştırılması


9
  1. İkinci dereceden kayıp , daha önce verilen burada . Let olasılığı. Bayes tahmincisini bulun .L(θ,δ)=(θδ)2π(θ)π(θ)U(0,1/2)f(x|θ)=θxθ1I[0,1](x),θ>0δπ

  2. Ağırlıklı karesel kaybı göz önünde burada ile önceden . Let olması olasılığı artar. Bayes tahmincisini bulun .Lw(θ,δ)=w(θ)(θδ)2w(θ)=I(,1/2)π1(θ)=I[0,1](θ)f(x|θ)=θxθ1I[0,1](x),θ>0δ1π

  3. Karşılaştırma veδπδ1π

İlk önce olduğunu fark ettim ve bunun olasılık olduğunu varsaydım, aksi takdirde herhangi bir posterior almadım, sonra böylece kuadratik kayıp ile ilgili Bayes tahmincisi f(x|θ)Beta(θ,1)

π(θ|x)f(x|θ)π(θ)=θxθ1I[0,1]2I(0,1/2)(θ)Beta(θ,1)
E[π(θ|x)]=θθ+1

Ben Bayesian Seçim kitabında bakıyorum ve ağırlıklı kuadratik kayıp ile ilişkili Bayes tahmincisi hakkında bir teorem var ve

δπ(x)=Eπ[w(θ)θ|x]Eπ[w(θ)|x]

Birisi bana nasıl hesapladığımı açıklayabilir mi?

Ne denedim:

δπ(x)=θw(θ)f(x|θ)π(θ)dθw(θ)f(x|θ)π(θ)dθf(x|θ)π(θ)dθw(θ)f(xθ)π(θ)dθ

Desteğin olduğunu biliyorum, ancak payda entegre olmaya çalıştığımda[0,12]

θw(θ)f(x|θ)π(θ)dθ=012θθxθ1dθ=1x012θ2xθdθ

İyi sonuç alamıyorum.


1
Burada negatif değil mi? w(θ)
Juho Kokkala

3
"Sadece negatif olmayanlar için" hakkındaki görüşünüzü anlamıyorum, çünkü (1) bir kayıp fonksiyonu hiç negatif olmayacak ve (2) kayıp fonksiyonunuz yine de negatif olamaz. w(θ)
whuber

@whuber Gosh, şimdi aptallığımı fark ettim, gösterge desteğine bakıyordum

Yanıtlar:


7

İlk olarak, olasılık tanımlarınızdaki gösterge fonksiyonlarının wrt sorununun değil fonksiyonları olması gerektiği için düzeltildiğini unutmayın . Bu nedenle, olasılıkla birine entegre olan olabilir:xθ

f(x)=θxθ1I[0,1](x)
01θxθ1dx=1

İkinci olarak, arka bölgesindeki ile gösterildiği gibi yana olduğunu bir Beta fonksiyonu Greenparker Kısıtlama nedeniyle değerlerinde de bir Gamma dağılımı değil, Gamma dağılımının kısalmasıdır.θ

π(θ|x)I[0,1/2](θ)θxθ1I[0,1/2](θ)θexp{log(x)θ}
θ

Dolayısıyla Bayes tahmincisi arka beklentidir tamamlanmamış Gamma işlevinin kullanılmasını gerektirebilecek gibi görünen ancak parçaya entegrasyonla kapalı biçimde türetilebilen : beri

E[θ|x]=01/2θ×θexp{log(x)θ}dθ/01/2θexp{log(x)θ}dθ=01/2θ2exp{log(x)θ}dθ/01/2θexp{log(x)θ}dθ
01/2θkexp{αθ}dθ=1α[θkexp{αθ}]01/2+kα01/2θk1exp{αθ}dθ
01/2exp{αθ}dθ=1exp{α/2}α

Son olarak, kitabımda belirtildiği gibi , küçültme, de en aza indirmek için eşdeğerdir kendisi orijinalinden önceki yerine yeni bir önceki yoğunluğa göre yeniden düzenlenmesi gereken, yani, δ

w(θ)(θδ)2π(θ|x)dθ
δ
w(θ)(θδ)2π(θ)f(x|θ)dθ
δ
(θδ)2w(θ)π(θ)f(x|θ)dθ
πw(θ)π(θ)
π1(θ)=w(θ)π(θ)/w(θ)π(θ)dθ

6

Kare hata kaybı kısmına verdiğiniz yanıt yanlış.

π(θ|x)f(x|θ)π(θ)=2θxθ1I(0,1/2)(θ).

Bu bir dağıtım , değil de ve posterior rastgele değişken . Bu yüzden cevabınız yanlış ve doğru cevap bu dağılımın posterior ortalaması olacaktır.Beta(θ,1)xθθ

İkinci kısım için,

(Ağırlıklı kayıp işlevi için önceki değer ancak bunu . Gösterimi tekrar .)π1ππ1

Let , burada , bir normalleştirme sabittir. Hesaplamanız gerekiyorπ(θ)=cw(θ)π1(θ)c

δπ1(x)=Eπ1[w(θ)θ|x]Eπ1[w(θ|x)]=w(θ)θf(x|θ)π1(θ)dθw(θ)f(x|θ)π1(θ)dθ=θf(x|θ)π(θ)dθf(x|θ)π(θ)dθ=Eπ[θ|x]

Bu nedenle, ağırlıklı en küçük kareler kaybı fonksiyonu için teorem, Bayes tahmininin farklı bir öncekine göre posterior ortalama olduğunu söylüyor. Önceki

π(θ)w(θ)π1(θ).

Normalleştirme sabiti .θw(θ)π(θ)dθ=Eπ1[w(θ)]

Eπ1[w(θ)]=01/2I0,1(θ)d(θ)=12.

Dolayısıyla, önceki . Bu, ilk soruda öncekiyle aynıdır.π(θ)=2I(0,1/2)(θ)

Böylece senaryoların cevabı (ne olursa olsun) aynı olacaktır. İntegrali burada bulabilirsiniz . Bununla birlikte, cevabın şeklini düzeltmek ve integrali tamamlamak yeterli olmayabilir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.