Laplace yumuşatma ve Dirichlet önceki


11

Açık Ara maddesi Laplace yumuşatma (ya da katkı maddesi düzgünleştirme) arasında, söz konusu olan bir görüş Bayes açıdan,

bu, önceki olarak parametresiyle simetrik bir Dirichlet dağılımı kullanarak posterior dağılımın beklenen değerine karşılık gelir .α

Bunun nasıl doğru olduğu konusunda şaşkınım. Birisi bu iki şeyin nasıl eşdeğer olduğunu anlamama yardımcı olabilir mi?

Teşekkürler!

Yanıtlar:


10

Elbette. Bu esasen Dirichlet dağılımının multinom dağılımından önce bir konjugat olduğu gözlemidir. Bu, aynı işlevsel forma sahip oldukları anlamına gelir. Makale bundan bahsediyor, ancak bunun çok yönlü örnekleme modelinden geldiğini vurgulayacağım. Yani, aşağı inmek ...

Gözlem posterior ile ilgilidir, bu yüzden farklı öğelerinin sayımı olan bazı verileri ( tanıtalım . Toplamda örneğini gözlemliyoruz . Biz varsayıyoruz bilinmeyen bir dağılımından çekilir (biz koyacağım hangi üzerinde önceden -simplex).K N = K i = 1 x i x π D i r ( α ) KxKN=i=1KxixπDir(α)K

Posterior olasılığı verilen ve veri olduğua xπαx

p(π|x,α)=p(x|π)p(π|α)

Olasılık, , çok terimli dağılımdır. Şimdi pdf'leri yazalım:p(x|π)

p(x|π)=N!x1!xk!π1x1πkxk

ve

p(π|α)=1B(α)i=1Kπiα1

burada . Çarparak, bunu buluyoruz,B(α)=Γ(α)KΓ(Kα)

p(π|α,x)=p(x|π)p(π|α)i=1Kπixi+α1.

Başka bir deyişle, posterior da Dirichlet'tir. Soru arka ortalama ile ilgiliydi. Posterior Dirichlet olduğundan, bunu bulmak için Dirichlet ortalamasının formülünü uygulayabiliriz ,

E[πi|α,x]=xi+αN+Kα.

Bu yardımcı olur umarım!


p(π|α,x)=p(x|π)p(π|α)/p(x|α), bu yüzden ile orantılıdır , ancak eşitlik yazmak doğru değildir bence. p(π|α,x)=p(x|π)p(π|α)?π
michal

Bu konuda uzun zamandır kafam karışmıştı ve aydınlanmamı paylaşmak istiyorum. Dirichlet'in Laplace yumuşatmasını motive eden bu insanlar MAP'yi değil, Posterior Ortalama kullanıyorlar. Basit olması için, Beta dağılımını varsayalım (en basit Dirichlet örneği) Posterior ortalama , MAP ise . Birisi diyorsa payda 1 ve paydaya 2 eklemeye karşılık gelirse , bunun nedeni Arka Ortalama'yı kullanıyor olmalarıdır. α+nsuccessα+β+nsuccess+nfailuresα+nsuccess1α+β+nsuccess+nfailures2α=β=1
RMurphy

0

Bir yan not olarak, yukarıdaki türetime başka bir nokta daha eklemek istiyorum, ki bu aslında ana soruyla ilgili değil. Ancak, Dirichlet'in multinom dağılımındaki öncelikleri hakkında konuşurken, olasılıkları rahatsızlık verici değişkenler olarak kabul edersek, olasılık fonksiyonunun ne olacağını belirtmeye değer olduğunu düşündüm.

Doğru sydeulissie tarafından işaret ediyor olarak, olan orantılı . Şimdi burada hesaplamak istiyorum .p(π|α,x)i=1Kπixi+α1p(x|α)

p(x|α)=i=1Kp(x|πi,α)p(π|α)dπ1dπ2...dπK

Gama işlevleri için ayrılmaz bir kimlik kullanıyoruz:

p(x|α)=Γ(Kα)Γ(N+Kα)i=1KΓ(xi+α)Γ(α)

Kategorik veri olasılığının yukarıdaki türetilmesi, numune büyüklüğünün yeterince büyük olmadığı durumlar için bu verilerle başa çıkmanın daha sağlam bir yolunu önerir .N

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.