Bayes çıkarımından önceki Beta konjugatını bir frekans hakkında anlama


11

Aşağıda Bolstad'ın Bayes İstatistiklerine Giriş bölümünden bir alıntı yer almaktadır .

T okuyorum

Orada tüm uzmanlar için, bu önemsiz olabilir, ancak yazarın bazı değerlerini posterior olasılığını hesaplamak için herhangi bir entegrasyon yapmamız gerekmediği sonucunu anlamıyorum . Orantılılık ve tüm terimlerin nereden geldiği ikinci ifadeyi anlıyorum ( muhtemelen x Öncelik) . Dahası, sadece pay doğrudan orantılı olduğundan payda için endişelenmemiz gerekmiyor. Ama üçüncü denkleme geçmek , Bayes Kuralının paydasını unutmuyor muyuz? O nereye gitti ? Ve Gamma işlevleri tarafından hesaplanan değer, bu sabit değil mi? Sabitler Bayes teoreminde iptal edilmiyor mu?π


5
Sadece bir olası sabit vardır, yani işlevi olasılık yoğunluğu yapan sabit.
Xi'an

Yanıtlar:


10

Mesele şu ki, posteriorun neyle orantılı olduğunu biliyoruz ve bu nedenle (sabit) paydayı elde etmek için entegrasyonu yapmamız gerekmiyor, çünkü olasılık yoğunluğu fonksiyonu ile orantılı bir dağılımın farkındayız (posterior gibi) bir beta dağılımıdır. Böyle bir beta pdf için normalleştirme sabiti , arka pdf'yi entegrasyon olmadan alırız. Ve evet, Bayes teoremindeki normalleştirme sabiti, aynı arka posteriorite için normalleştirme sabiti gibi bir sabittir (gözlenen veriler ve daha önce varsayılan).xα1×(1x)β1Γ(α+β)Γ(α)Γ(β)


8

Kurulum

Bu modeliniz var: Yoğunluğu ve özellikle

pbeta(α,β)x|pbinomial(n,p)
f(p)=1B(α,β)pα1(1p)β1
g(x|p)=(nx)px(1p)nx
1B(α,β)=Γ(α+β)Γ(α)Γ(β).

Örtük sürüm

Şimdi. Arka dağılım, önceki ile olasılığı ile çarpılır . Sabitleri (yani olmayan şeyler) yok sayabiliriz, şunu veririz : fgp

h(p|x)f(p)g(p|x)=pα1(1p)β1pxpnx=pα+x1(1p)β+nx1.

Bu, ve parametreleriyle bir beta dağılımının 'şekline' sahiptir ve bu parametrelerle bir beta dağılımı için karşılık gelen normalleştirme sabitinin ne olması gerektiğini biliyoruz: . Veya gama fonksiyonları açısından, Başka bir deyişle, fazladan herhangi bir ek işlem olmadan oransal bir ilişkiden biraz daha iyi yapabilir ve doğrudan eşitliğe gidebiliriz: α+xβ+nx1/B(α+x,β+nx)

1B(α+x,β+nx)=Γ(n+α+β)Γ(α+x)Γ(β+nx).
h(p|x)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1.

Böylece, bir dağınık entegrasyon ve benzerinden geçmek yerine, posterior için bir ifadeyi kolayca kurtarmak için bir beta dağılımının yapısı hakkındaki bilgiler kullanılabilir.

Eklem dağılımının normalleştirici sabitlerini örtük bir şekilde iptal ederek, kafa karıştırıcı olabilir ve bu da arkaya yaklaşır.

Açık sürüm

Ayrıca, prosedürleri daha net bir şekilde öğütebilirsiniz.

Aslında o kadar da uzun değil. Ortak dağılımı olarak ifade edebileceğimizi unutmayın ve marjinal dağıtım olarak

f(p)g(x|p)=1B(α,β)(nx)pα+x1(1p)β+nx1
x
01f(p)g(x|p)dp=1B(α,β)(nx)01pα+x1(1p)β+nx1dp=1B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+nx)

Böylece Bayes teoremini kullanarak .

h(p|x)=f(p)g(x|p)01f(p)g(x|p)dp=1B(α,β)(nx)pα+x1(1p)β+nx11B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+n)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1

7

Genel açıklamalar

Björn biraz daha açık ve aynı zamanda daha genel @ verdiği cevabı yapmak için, biz geldi hatırlamalıyız Bayes Teoremi dan

p(θ|X)×p(X)=p(X,θ)=p(X|θ)×p(θ)

p(θ|X)=p(X|θ)×p(θ)p(X) (Bayes Thereom) anlamına gelir

burada , gözlemlenen verileri temsil eder ve bilinmeyen parametremiz ile ilgili olasılıksal çıkarımlar yapmak isteriz - sorunun durumunda parametre bilinmeyen bir frekanstır . Şimdilik endişelenmeyelim, basit tutmak için vektörler veya skalerler hakkında konuşalım.Xθπ

Sürekli vakada marjinalleşme

p(X)=+p(X,θ)dθ=+p(X|θ)×p(θ)dθ

ortak dağıtım burada eşit yukarıda gördük. Bir sabittir, çünkü parametreyi 'entegre ettikten' sonra sadece sabit terimlere bağlıdır .p(X,θ)likelihood×prior

Bu nedenle edebilir Bayes Teoremi yeniden formüle olarak

p(θ|X)=Const.×p(X|θ)×p(θ) ileConst.=1p(X)=1p(X|θ)×p(θ)dθ

ve böylece her zamanki varmak orantılılık formunun ait Bayes Teoremi .

Problemin bir ele uygulanması

Şimdi biz sadece hazır bildiklerimizi takın beri Sorunun durumda formun olduğulikelihood×prior

p(X,θ)=p(X|θ)×p(θ)=Aθa+y1(1θ)b+ny1=Aθa1(1θ)b1

burada , ve burada binom olasılığından ve betadan sabit terimleri toplar önce.a=a+yb=b+nyA=1B(a,b)(ny)

Artık @ Björn tarafından verilen yanıtı kullanarak bunun işlevinin Beta işleviyle ifadesinin sabit terimlerin toplanmasına katlandığını ve böyleceB(a,b)A

p(X)=A01θa1(1θ)b1dθ=AB(a,b)

p(θ|X)=Aθa1(1θ)b1AB(a,b)=θa1(1θ)b1B(a,b)

Ortak dağıtımdaki herhangi bir sabit terimin her zaman iptal edileceğini unutmayın, çünkü aday ve paydada aynı anda görünecektir (bkz. @Jtobin tarafından verilen cevap) bu yüzden gerçekten rahatsız etmemiz gerekmez.

Bu nedenle, posterior dağılımımızın aslında posterior'a ulaşmak için önceki ve parametrelerini güncelleyebileceğimiz bir beta dağılımı olduğunu biliyoruz . Bu nedenle önceden dağıtılan beta'ya önceden konjugat denir . a=a+yb=b+ny


Bu akıl yürütme jtobinin örtük versiyonuna benzer. Olasılık zamanlarını yalnızca parametreyi içeren bölümlere bakarız ve diğer her şeyi normalleştirme sabitinde toplarız . Bu nedenle entegrasyona yalnızca meşru olan son bir adım olarak bakarız, çünkü sabitler jtobinin açık versiyonunda gösterdiği gibi iptal olur.
gwr
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.