Jeffreys'in aksine, değişmez olmayan bir posterior yol açar.


17

İki hafta önce burada verdiğim bir soruya "cevap" yazıyorum: Jeffreys neden daha önce yararlı? Bu gerçekten bir soruydu (ve ben de o zaman yorum gönderme hakkım yoktu), bu yüzden umarım bunu yapmak için sorun yok:

Yukarıdaki bağlantıda, Jeffreys'in daha önce ilginç olan özelliğinin, modeli yeniden parametrelendirirken ortaya çıkan posterior dağılımın, dönüşümün getirdiği kısıtlamalara uyan posterior olasılıklar verdiği tartışılmaktadır. Orada anlatıldığı gibi başarı olasılığı taşırken ki, θ oran Beta-Bernoulli örnekte ψ=θ/(1θ) , bu durumda olması gereken bir arka tatmin olduğu P(1/3θ2/3X=x)=P(1/2ψ2X=x) .

Öncesinde transforme edilmesi için Jeffreys değişmezliği sayısal bir örnek oluşturmak için istediği θ oranları için ψ ve daha ilginç bir şekilde, bunun, diğer önsel (örneğin, Haldane, tekdüze veya isteğe bağlı olanlar) yoksundur.

Şimdi, başarı olasılığı için posterior Beta ise (sadece Jeffreys için değil, önceki herhangi bir Beta için), olasılıkların posterioru aynı parametrelerle ikinci tür bir Beta dağılımını takip eder (Wikipedia'ya bakın) . Aşağıdaki sayısal örnekte vurgulanmıştır Sonra, çok değişmezliği olduğunu (en azından benim için) şaşırtıcı değildir öncesinde Beta herhangi bir seçim için (oynayabilir alpha0_Uve beta0_U), sadece Jeffreys, krş program çıktısı.

library(GB2) 
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)

theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3

odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)

n = 10 # some data
k = 4

alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k

alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k

# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J) 
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J) 

# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)

Bu beni şu sorulara getiriyor:

  1. Bir hata yapabilir miyim?
  2. Hayır ise, eşlenik ailelerde değişmezlik olmaması gibi bir sonuç var mı, ya da bunun gibi bir şey mi? (Hızlı inceleme beni örneğin normal-normal durumda değişmezlik üretemediğimden şüpheleniyor.)
  3. Eğer biz hangi bir (tercihen basit) örnek biliyor musunuz yapmak değişmezliği eksikliği olsun?

1
Olasılık olasılığının bir özelliği olduğundan değişmezliği doğrulamak için R koduna (R sürüm 3.0.2 ile çalışamam) ihtiyacınız yoktur. Önceki değişmezlik ile kastedilen, örnekleme modelinin parametreleme seçimine bağlı olmayan, daha önce seçmek için bir kuralın oluşturulmasıdır.
Xi'an

1
Rahatsızlık için özür dilerim. Bilgisayarımda R 3.1.2 ile çalışır. Eğer takip edebilirsem, yorumunuz Stephan'ın Laurent tarafından Jeffrey'in daha önce neden faydalı olduğu hakkındaki kabul edilen cevap, madde 1 hakkındaki yorumunu yanlış anladığımı ima ediyor mu? ?
Christoph Hanck

Yanıtlar:


19

Hesaplamanız, belirli bir önceden dağıtım olduğunda aşağıdaki iki prosedürü doğruladığımız doğrulanıyor gibi görünüyorp(θ)

  1. Arka pθD(θD)
  2. Elde etmek üzere başka parametreleriyle içine yukarıda belirtilen posterior Transform pψD(ψD)

ve

  1. P ψ ( ψ elde etmek için önceki yi diğer parametreleştirmeye dönüştürünpθ(θ)pψ(ψ)
  2. Önceki kullanarak arka p ψ D ( ψ D ) değerlerini hesaplayınpψ(ψ)pψD(ψD)

Aynı arka yol . Bu gerçekten her zaman ortaya çıkar (uyarı; sürece dönüşüm üzerinde bir dağıtım şekildedir olarak ψ üzerinde dağılım ile tespit edilebilmektedir İçeride ISTV melerin RWMAIWi'nin ).ψψθ

Ancak, söz konusu değişmezliğin konusu bu değildir. Bunun yerine, soru, Öncekine Karar Vermek için belirli bir Yöntemimiz olduğunda, aşağıdaki iki prosedürün olup olmadığıdır:

  1. pθ(θ)
  2. Bu dağıtımı dönüştürpψ(ψ)

ve

  1. pψ(ψ)

ψ

θ[0,1] için üniforma değil ψ bitmiş [0,).

Bunun yerine, Önceli Karar Verme Yöntemi 'parametre için Jeffrey'inkini kullan' ise, bunun için kullanmanız önemli değildir. θ ve ψ-parametrizasyon veya ψdirekt olarak. Bu iddia edilen değişmezliktir.


1

It looks like you're verifying the likelihoods induced by the data are unaffected by parametrization, which has nothing to do with the prior.

Öncelikleri seçmenin yolu, örneğin "önceden tek tip olanı seçmek" ise, o zaman bir parametreleştirme altında tek tip olan (örneğin Beta, yani Beta (1,1)) diğeri altında tekdüze olmayan, örneğin BetaPrime (1,1) ) (çarpıktır) - böyle bir şey varsa BetaPrime (1, -1) eşittir.

The Jeffreys prior is the only "way to choose priors" that is invariant under reparametrization. So it is less assumptive than any other way of choosing priors.


I do not think the Jeffreys prior is the only invariant prior. When they differ, left and right Haar measures are both invariant.
Xi'an

@Neil G, I am not sure I can follow your reasoning that I only look at the likelihood. When plugging (e.g.) alpha1_J into pbeta and pgb2 this parameter is determined by both a prior parameter (alpha1_J) and the data (k), likewise for all the other parameters.
Christoph Hanck

1
(+1) Sübjektif önceliklerin ortaya çıkarılmasının da parametrelendirme-değişmez olacağını umuyorsunuz.
Scortchi - Monica'yı eski durumuna getirin

1
@Zen: evet, gerçekten çok aceleciydim: Haar önlemleri yanlış bir örnek. Yine de, merak ediyorum neden Jeffreys 'daha önce tek değişmez ...
Xi'an

2
@Xi'an: if my memory doesn't fail me, there is a Theorem in Cencov book (amazon.com/…) which, in some sense (?), proves that Jeffreys prior is the only guy in the town with the necessary invariance. His proof is inaccessible to me. It uses the language of Category Theory, functors, morphisms and all that. en.wikipedia.org/wiki/Category_theory
Zen
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.