Bayes analizi için olasılık ve koşullu dağılım


13

Bayes teoremini şöyle yazabiliriz:

p(θ|x)=f(X|θ)p(θ)θf(X|θ)p(θ)dθ

burada arka, koşullu dağılım ve .p(θ|x)f(X|θ)p(θ)

veya

p(θ|x)=L(θ|x)p(θ)θL(θ|x)p(θ)dθ

burada arka, olabilirlik fonksiyonudur ve .p(θ|x)L(θ|x)p(θ)

Sorum şu

  1. Bayes analizi neden koşullu dağılım değil olasılık işlevi kullanılarak yapılıyor?
  2. Olasılık ve koşullu dağılım arasındaki farkın ne olduğunu kelimelerle söyleyebilir misiniz? Olasılık bir olasılık dağılımı ve .L(θ|x)f(X|θ)

1
Fark yok! Olasılık şudur: koşullu dağılımı , orantılıdır, önemli olan budur. f(X|θ)
kjetil b halvorsen

1
Önceki parametre yoğunluğuna sahiptir . gerçekleştirilmesi durumunda değerine sahiptir ise rastgele değişken gözlenen değer , olabilirlik fonksiyonu daha sonra değeri olan tam , değer koşullu yoğunluğu arasında . Aradaki fark, için tüm gerçekleşmeleri . Ancak, bir fonksiyonu olarakΘpΘ(θ)ΘθxXL(θx) f(xθ)fXΘ(xΘ=θ)X
fXΘ(xΘ=θ)dx=1
Θθ(sabit ), olduğu değil yoğunluk:xL(θx)
L(θx)dθ1
Dilip Sarwate

Yanıtlar:


11

Varsayalım sahip olduğun göz önüne alındığında koşullu bağımsızdır (değerleri denemenizde gözlemlenecektir) rastgele değişkenler, ile, koşullu yoğunlukları , . Bu (öne) istatistiksel (şartlı) modeli olduğunu ve koşullu yoğunlukları olası her değer için, ekspres (rastgele) parametresi , değerleri hakkında belirsizlik 's, önce herhangi bir erişebilir gerçek veri. Koşullu yoğunlukların yardımıyla, örneğin, koşullu olasılıkları hesaplayabilirsiniz. X1,,XnΘ=θfXiΘ(θ)i=1,,nθΘXi

P{X1B1,,XnBnΘ=θ}=B1××Bni=1nfXiΘ(xiθ)dx1dxn,
her .θ

gözlemlenen değerlerinin gerçek bir örneğine ) sonra durum değişir: gözlemlenebilir hakkında artık belirsizlik yok . Rastgele bazı parametre uzayında değerleri aldığını varsayalım . Şimdi, bu bilinen (sabit) değerleri için tanımlama bir fonksiyonu tarafından Bu Not "olabilirlik fonksiyonu" olarak bilinen, bir fonksiyonudur(x1,,xn)XiX1,,XnΘΠ(x1,,xn)

Lx1,,xn:ΠR
Lx1,,xn(θ)=i=1nfXiΘ(xiθ).
Lx1,,xnθ . Bu "verilerinizden sonra" durumunda, olasılığı , düşündüğümüz belirli koşullu model için, bu özel örnekte bulunan parametresi ile ilgili tüm bilgileri içerir . Aslında, için yeterli bir istatistiktir .Lx1,,xnΘ(x1,,xn)Lx1,,xnΘ

Sorunuzu cevaplamak, koşullu yoğunluk ve olasılık kavramları arasındaki farkları anlamak için, matematiksel tanımlarını (açıkça farklı olan: farklı özelliklere sahip farklı matematiksel nesnelerdir) aklınızda bulundurun ve ayrıca koşullu yoğunluğun "ön -örnek "nesne / kavram, olasılık ise bir" örnek sonrası "olabilir. Umarım tüm bunlar, Bayes çıkarımının (koyma şeklinizi kullanarak, ideal olduğunu düşünmediğim) neden "koşullu dağılımı değil olasılık işlevini kullanarak" yapıldığını yanıtlamanıza yardımcı olmasını umarız: Bayesci çıkarımın amacı posterior dağılımı hesaplamak ve bunu yapmak için gözlenen (bilinen) veriler üzerinde koşullandırma yaparız .


Bence Zen, olasılık ve koşullu olasılıkların farklı olduğunu söylediğinde doğru. Olabilirlik fonksiyonunda θ rastgele bir değişken değildir, bu nedenle koşullu olasılıktan farklıdır.
Martine

2

Orantılılık, analizi basitleştirmek için kullanılır

Bayes analizi genellikle Bayes teoreminin daha da basit bir ifadesiyle yapılır , burada yalnızca ilgili parametreyle orantılılık açısından çalışırız. Örnekleme yoğunluğu olan standart bir IID modeli için bunu şu şekilde ifade edebiliriz:f(X|θ)

p(θ|x)Lx(θ)p(θ)Lx(θ)i=1nf(xi|θ).

Bayesian güncellemesinin bu beyanı parametresiyle orantılılık açısından çalışır . İki orantısal basitleştirme kullanır: biri olasılık fonksiyonunun kullanımında (örnekleme yoğunluğu ile orantılı) ve diğeri posteriorda (olasılık ve önceki ürünle orantılı). Posterior bir yoğunluk fonksiyonu olduğundan (sürekli durumda), norm kuralı daha sonra geçerli bir yoğunluk (yani, bire entegre olmasını sağlamak için) gereken çarpma sabitini ayarlar.θ

Orantılılığın bu yöntem kullanımı, parametresine bağlı olmayan fonksiyonların çarpma elemanlarını yok saymamıza izin verme avantajına sahiptir . Bu, matematiğin gereksiz kısımlarını süpürmemize ve güncelleme mekanizmasının daha basit ifadelerini almamıza izin vererek sorunu basitleştirme eğilimindedir. Bu matematiksel bir gereklilik değildir (Bayes kuralı oransal olmayan biçimde de çalıştığından), ancak küçük hayvan beyinlerimiz için işleri daha basit hale getirir .θ

Uygulanan bir örnek: Gözlenen veriler olan bir IID modeli düşünün . Analizimizi kolaylaştırmak için ve , ilk iki örnek an. Bu model için örnekleme yoğunluğumuz var:X1,...,XnIID N(θ,1)x¯=1ni=1nxix¯¯=1ni=1nxi2

f(x|θ)=i=1nf(xi|θ)=i=1nN(xi|θ,1)=i=1n12πexp(12(xiθ)2)=(2π)n/2exp(12i=1n(xiθ)2).=(2π)n/2exp(n2(θ22x¯θ+x¯¯))=(2π)n/2exp(nx¯¯2)exp(n2(θ22x¯θ))

Şimdi, istersek doğrudan bu örnekleme yoğunluğu ile çalışabiliriz. Ancak bu yoğunluktaki ilk iki terimin bağlı olmayan çarpma sabitleri olduğuna dikkat edin . Bu terimleri takip etmek can sıkıcıdır, bu yüzden onlardan kurtulalım, bu yüzden olasılık fonksiyonuna sahibiz:θ

Lx(θ)=exp(n2(θ22x¯θ)).

Ek bir terimi takip etmek zorunda olmadığımız için bu, işleri biraz basitleştirir. Şimdi, Bayes kuralını, integral payda da dahil olmak üzere tam denklem versiyonunu kullanarak uygulayabiliriz. Ama yine de, bu bize bağlı olmayan başka bir can sıkıcı çarpma sabitini takip etmemizi gerektirir (daha sinir bozucu çünkü onu elde etmek için bir integrali çözmemiz gerekir). Şimdi Bayes kuralını orantılı biçiminde uygulayalım. Önceki , bilinen bazı hassas parametrelerle , aşağıdaki sonucu elde ederiz ( kareyi tamamlayarak ):θθN(0,λ0)λ0>0

p(θ|x)Lx(θ)p(θ)=exp(n2(θ22x¯θ))N(θ|0,λ0)exp(n2(θ22x¯θ))exp(λ02θ2)=exp(12(nθ22nx¯θ+λ0θ2))=exp(12((n+λ0)θ22nx¯θ))=exp(n+λ02(θ22nx¯n+λ0θ))exp(n+λ02(θnn+λ0x¯)2)N(θ|nn+λ0x¯,n+λ0).

Böylece, bu çalışmadan posterior dağılımın normal yoğunlukla orantılı olduğunu görebiliriz. Posterior bir yoğunluk olması gerektiğinden , posteriorun normal yoğunluk olduğu anlamına gelir :

p(θ|x)=N(θ|nn+λ0x¯,n+λ0).

Bu nedenle, parametresinin bir posteriori değerinin normal olarak posterior ortalama ve varyans ile dağıtıldığını görüyoruz :θ

E(θ|x)=nn+λ0x¯V(θ|x)=1n+λ0.

Şimdi, elde ettiğimiz posterior dağılımın önünden bir entegrasyon sabiti vardır (ki bu normal dağılımın formuna bakarak kolayca bulabiliriz ). Ancak, bu çarpımsal sabit hakkında endişelenmemiz gerekmediğine dikkat edin - bu, matematiği basitleştirdiğinde tüm çalışmalarımız çarpma sabitlerini kaldırdı (veya getirdi). Çarpıcı sabitleri takip ederken aynı sonuç elde edilebilir, ancak bu çok daha karışıktır.


0

Bence Zen'in cevabı, rastgele değişkenlerin olasılık fonksiyonunun ve eklem yoğunluğunun kavramsal olarak ne kadar farklı olduğunu söylüyor. Hala matematiksel olarak hem x s hem de θ bir fonksiyonu olarak ve bu anlamda olasılık bir olasılık yoğunluğu olarak görülebilir. Bayes posterior dağılımı için formülde işaret ettiğiniz fark sadece gösterimsel bir farktır. Ancak farkın inceliği Zen'in cevabında güzel bir şekilde açıklanmıştır.i

Bu konu, olasılık işlevi ile ilgili olarak bu sitede tartışılan diğer sorularda ortaya çıkmıştır. Ayrıca kjetil ve Dilip'in diğer yorumları da söylediklerimi destekliyor gibi görünüyor.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.