Poster önceliğe ve olasılığa göre çok farklı


21

Eğer önceki ve olasılık birbirinden çok farklıysa, bazen arkadakilerin hiçbirine benzemediği bir durum ortaya çıkar. Örneğin, normal dağılımları kullanan bu resme bakın.

Posterior Davranış

Her ne kadar bu matematiksel olarak doğru olsa da, sezgilerime uygun gözükmüyor - veriler güçlü tutulan inançlarımla veya verilerle uyuşmuyorsa, hiçbir menzilin iyi geçmesini beklememeyi ya da düz bir poster beklememi beklerdim Tüm aralık veya belki de önceki ve olasılık etrafında bir iki modlu dağılım (hangisinin daha mantıklı geldiğinden emin değilim). Öncelikle inancımla ya da verilerimle uyuşmayan bir dizi etrafında kesinlikle dar bir poster beklemem. Daha fazla veri toplandıkça, posterior'un olasılığa doğru hareket edeceğini biliyorum, ancak bu durumda karşı sezgisel görünüyor.

Sorum şu: bu durum hakkındaki anlayışım nasıl hatalı (veya kusurlu). Posterior bu durum için 'doğru' fonksiyonudur. Ve değilse, başka nasıl modellenebilir?

Bütünlük uğruna, öncelik ve .N ( μ = 6.1 , σ = 0.4 )N-(μ=1.5,σ=0.4)N-(μ=6.1,σ=0.4)

EDIT: Verilen cevapların bazılarına baktığımda, durumu çok iyi açıklamamış gibi hissediyorum. Demek istediğim, Bayesian analizinin , modeldeki varsayımlar göz önüne alındığında sezgisel olmayan bir sonuç ürettiği görülüyordu . Umudum, posterior'un bir şekilde belki de kötü durum modelleme kararlarını hesaba katacağıydı. Cevabımda bu konuda genişleyeceğim.


2
Bu, basitçe, posteriorun normalliğini kabul edemeyeceğiniz anlamına gelir. Eğer posterior'un normal olduğunu varsayarsanız, bu gerçekten doğru olacaktır.
PascalVKooten

Posterior hakkında herhangi bir varsayımda bulunmadım, sadece önceliği ve olabilirliği. Ve her durumda, dağılım şekli burada önemsiz görünüyor - Onları manuel olarak çizebilirdim ve aynı posterior bunu izlerdi.
Rónán Daly

Diyorum ki, posterior'un normal olabileceğini varsaymıyorsanız, bu posteriordaki inancınızı ortadan kaldıracağınızı söylüyorum. Normal bir önceki ve normal veri göz önüne alındığında, normal bir posterior böyle olurdu. Belki küçük verileri hayal edin, bunun gibi bir şey gerçekte gerçekleşebilir.
PascalVKooten

1
Bu rakam doğru mu? Görünüşe göre, önceki olasılığı asla üst üste gelmedikleri için 0'a yakın olmalı. Önceden ağırlığı orada 0'a çok yakın olduğundan, posterior'unuzun oraya nasıl bakabileceğini görmekte güçlük çekiyorum. Bir şey mi eksik? x
Luca,

1
@Luca Yeniden normalleşmeyi unutuyorsunuz. Öncelik ve olasılıkların çarpımı sıfıra yakın, evet - ama tekrar normalleştirdiğinizde tekrar 1 ile bütünleşirse, bunun önemi kalmaz.
Pat

Yanıtlar:


5

Evet, bu durum ortaya çıkabilir ve önceki ve örnekleme modelinde (olasılık) modelleme varsayımlarınızın özellikle normallik özelliğidir. Bunun yerine önceliğiniz için bir Cauchy dağılımı seçmiş olsaydınız, posterior çok farklı olurdu.

prior = function(x) dcauchy(x, 1.5, 0.4)
like = function(x) dnorm(x,6.1,.4)

# Posterior
propto = function(x) prior(x)*like(x)
d = integrate(propto, -Inf, Inf)
post = function(x) propto(x)/d$value

# Plot
par(mar=c(0,0,0,0)+.1, lwd=2)
curve(like, 0, 8, col="red", axes=F, frame=T)
curve(prior, add=TRUE, col="blue")
curve(post, add=TRUE, col="seagreen")
legend("bottomleft", c("Prior","Likelihood","Posterior"), col=c("blue","red","seagreen"), lty=1, bg="white")

Cauchy önceki, normal örnekleme modeli


Cevabınız için teşekkür ederim @jaradniemi, bir Cauchy öncesinin soruda verilen özel durumdan her zaman kaçınacağını düşünür müsünüz?
Rónán Daly

1
Evet. Genellikle ağır kuyruklu öncelikler, verilerin öncekini daha kolay zorlamasını sağlar.
jaradniemi

2
jaradniemi, öyle olabilir, ancak posteri etkilemeden önce istemiyorsanız, neden önce bir bilgilendirici seçtiniz? Bir cauchy seçmeyi öneriyor gibi görünüyorsun, çünkü bilgilendirici görünüyor, ama aslında değil.
Florian Hartig

1
Öncelik ve olasılık kabul ederse, o zaman posterior öncekinden doğrulukta istenen artışı elde edersiniz ve dolayısıyla önceliği bilgilendirici olur. Fakat ağır kuyruklu bir öncelik seçmek, ikisinin aynı fikirde olmadığında bir öncekinin kolayca bunalmasına izin verir.
jaradniemi,

2

Şimdiye kadar verilen cevaplara katılmıyorum - bu durum için tuhaf bir şey yok. Olasılık yine de asimptotik olarak normaldir ve normal bir önceki hiç görülmeyen bir durum değildir. Her ikisini de bir araya getirirseniz, önceki ve olasılıkların aynı cevabı vermemesi gerçeğiyle, burada bahsettiğimiz duruma sahibiz. Ben, onu, Baradniemi'nin kodu ile aşağıda betimledim.

Biz söz 1 Böyle bir gözlem normal sonucu ya a) Model yanlış b yapısal olduğu olacağını) verileri yanlış c) önceden yanlıştır. Ancak kesin olarak bir şeyler yanlış, ve yine de yapmanız gereken bazı posterli kestirim kontrolleri yaparsanız bunu da göreceksiniz.

1 Hartig, F .; Dyke, J .; Hickler, T .; Higgins, SI; O'Hara, RB; Scheiter, S. & Huth, A. (2012) Dinamik bitki örtüsü modellerinin verilere bağlanması - ters bir bakış açısı. J. Biogeogr., 39, 2240-2252. http://onlinelibrary.wiley.com/doi/10.1111/j.1365-2699.2012.02745.x/abstract

prior = function(x) dnorm(x,1,.3)
like = function(x) dnorm(x,-1,.3)

# Posterior
propto = function(x) prior(x)*like(x)
d = integrate(propto, -Inf, Inf)
post = function(x) propto(x)/d$value

# Plot
par(mar=c(0,0,0,0)+.1, lwd=2)
curve(like, -2, 2, col="red", axes=F, frame=T, ylim = c(0,2))
curve(prior, add=TRUE, col="blue")
curve(post, add=TRUE, col="seagreen")
legend("bottomleft", c("Prior","Likelihood","Posterior"), col=c("blue","red","seagreen"), lty=1, bg="white")

görüntü tanımını buraya girin


2

Bu soruya geldiğimde aradığım cevabı en iyisi Bayesian Biostatistics'deki Lesaffre ve Lawson tarafından en iyi şekilde özetlendi.

Arka hassas yani önce ve örnek kesinlikle toplamıdır:

1σ2=w0+w1
μσ

Bunun benim için özetlediği ve kabaca diğer cevaplarda belirtildiği gibi, normal öncelikleri normal bir olasılıkla modelleme durumunun, posterior'un ikisinden de daha kesin olduğu bir durumla sonuçlanabileceğidir. Bu, sezgiseldir, ancak bu öğelerin bu şekilde modellenmesinin özel bir sonucudur.


Bu, Fisher matrisi ile daha yüksek boyutta genelleşir. Günlük dağılımının zirvesine yakın arka dağılım olasılığı Hessian, önceki ve olası ters kovaryansların toplamıdır. Bu toplamın tersi, posteriorun kovaryansıdır. İki pozitif (yarı) kesin matris (ters kovaryanslar) eklendiğinden, posteriorun hassasiyetinin önceki veya olasılık olasılık dağılımlarının değerini aşması matematiksel olarak garanti edilir. Bu, Bayesian çerçevesindeki evrensel bir sonuçtur.
T3am5hark

2

X1X0μN(1.6,0.42)X1N(μ,0.42)X1X10.42+0.42=0.562ϕ((6.11.6)/0.56)=9.31016μ

X0N(μ,0.42)X0X0X1|X1X0|>6.11.6

X0X1


1

Bir süre bunu düşündükten sonra, benim sonucum, kötü modelleme varsayımlarıyla birlikte, posterior'un önceki inançlara veya olasılıklara uygun olmayan bir sonuç olabileceğidir. Bundan doğal sonuç posteriorun genel olarak analizin sonu olmamasıdır . Eğer posteriorun verilere kabaca uyması gerekiyorsa veya önceki ile olasılık arasında dağınık olması gerekiyorsa (bu durumda), bu durum muhtemelen posterior-prediktif kontrol veya başka bir şeyle kontrol edilmek zorundadır. benzer. Bunu modele dahil etmek, mümkün olmadığını düşündüğüm olasılıksal ifadelere olasılık koyma yeteneğini gerektiriyor gibi görünmektedir.


evet, katılıyorum, daha ayrıntılı cevabımı gör
Florian Hartig

0

Bence bu gerçekten ilginç bir soru. Uyudum, sanırım bir cevabımdan bir bıçak aldım. Anahtar konu aşağıdaki gibidir:

  • Olasılığı Gauss pdf olarak gördünüz. Ama bu bir olasılık dağılımı değil - bir ihtimal! Dahası, ekseninizi net olarak etiketlemediniz. Birleştirilen bu şeyler, takip eden her şeyi karıştırdı.

μσP(μ|μ',σ')μ'σ'P(X|μ,σ)XP(μ|X,σ,μ',σ')μ

μP(X|μ)

P(μ|μ',σ')=exp(-(μ-μ')22σ'2)12πσ'2

P(X|μ,σ)=Πben=1N-exp(-(xben-μ)22σ2)12πσ2

σ'2=σ2/N-σ2N-X

Öyleyse, önceki ve olasılık eşit derecede bilgilendirici. Neden arka bimodal değil? Bunun nedeni model varsayımların. Bu kurallara göre normal bir dağılım olduğunu varsaydınız (normalden önceki, normal olabilirlik) ve bu durumun arkaya dönük bir cevap vermesini engeller. Bu sadece normal dağılımların bir özelliği, problemi kullanarak bunları kullanmışsınızdır. Farklı bir model mutlaka bunu yapmazdı. Bir hüzünlü bir dağılımın multimodal bir olasılık olabileceği ve dolayısıyla multimodal bir posterior olabileceğine dair bir hisim var.

Dolayısıyla, tekdüze olmak zorundayız ve birincisi olasılık kadar bilgilendirici. Bu kısıtlamalar altında, en mantıklı tahmin, hangisinin inanacağını söyleyecek makul bir yolumuz olmadığı için, olasılık ile öncelik arasında doğrudan bir nokta gibi görünmeye başlamasıdır. Fakat posterior neden sıkılaşıyor?

σμσσσμ

(Görselleştirmenin bir yolu, bir gaussun ortalamasını tahmin etmek, bilinen varyansı olan, sadece iki numune noktası kullanarak hayal etmek olabilir. Eğer iki numune noktası, gaussianın genişliğinden çok daha fazla ayrılırsa (yani dışarıda kuyruklarda), o zaman ortalamanın gerçekte aralarında yattığının güçlü bir kanıtı: Ortalamanın bu konumdan biraz hafifçe kaydırılması, bir örneğin ya da diğerinin ihtimalinde üssel bir düşüşe neden olacaktır.

Özetle, anlattığınız durum biraz gariptir ve modeli kullanarak sahip olduğunuzun farkına varmadığınız sorunla ilgili bazı varsayımları (örneğin tekdüze) dahil ettiniz. Ancak aksi takdirde, sonuç doğrudur.


Cevabınız için teşekkürler @Pat, burada söylediklerinizin çoğuna katılıyorum, kurulan sorun biraz özensizdi (olasılık sadece parametrelerin bir işlevi olmasına rağmen, bu yüzden iyiliği için olasılık yoğunluğu olması iyi bir şey. örneğin). Analizi gerçekten yapmalıyımμσσμ
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.