Jeffreys Priors ve varyans dengeleyici dönüşümün ardındaki ilişki nedir?


17

Daha önce wikipedia'da Jeffreys hakkında okuyordum: Jeffreys Prior ve her örnekten sonra, varyans stabilize edici bir dönüşümün Jeffreys'i daha önce tek tip bir forma dönüştürdüğünü açıkladığını gördüm.

Bir örnek olarak, Bernoulli durum için, bu durumları olasılığı olan kafaları olan bir madeni para için γ[0,1] , Bernoulli test modeli verimleri bu Jeffreys önce parametre için γ :

p(γ)1γ(1γ)

Daha sonra bunun α = β = 1 olan bir beta dağılımı olduğunu belirtir.α=β=12 . Ayrıcaγ=sin2(θ),için olan Jeffreys[0,πθaralığında eşitolduğunu belirtir.[0,π2] .

Dönüşümü, varyans dengeleyici bir dönüşüm olarak kabul ediyorum. Beni şaşırtan şey:

  1. Varyans stabilizasyonu dönüşümü neden daha önce tekdüze olur?

  2. Neden daha önce üniforma istiyoruz? (uygunsuz göründüğünden daha hassas görünebilir)

Genel olarak, kare sinüs dönüşümünün neden verildiğinden ve hangi rolün oynandığından tam olarak emin değilim. Herhangi bir fikri olan var mı?


2
Bunu sorarak kendi kendime öğrettiğim bir şarlatan olarak dışarı çıkacağım, ama: hangi varyans stabilize edici dönüşümden bahsediyorsun? ? 1sin2(θ)(1sin2(θ))
shadowtalker

2
Kare sinüs geleneksel olarak dönüşümü düşünmenin yanlış yoludur. , arsin kare kökü veya açısal dönüşümdür. θ=arcsinγ
Nick Cox

Yanıtlar:


3

Önceden Jeffreys yeniden parametreleme altında değişmez. Bu nedenle, birçok Bayesian bunun “bilgilendirici olmayan bir öneri” olduğunu düşünmektedir. (Hartigan, α + β = 1 için nın böyle bir önceliğe sahip olduğunu gösterdi; burada J , Jeffreys'den önce ve H , Hartigan'ın asimptotik olarak lokal olarak değişmeyen önceliğidir. - Değişmez Önceki Dağılımlar ) JαHβα+β=1JH

Önceden üniformanın bilgilendirici olmadığı, ancak parametrelerinizin keyfi bir şekilde dönüştürülmesinden sonra ve yeni parametrelerden önceki üniformanın tamamen farklı bir şey olduğu sıklıkla tekrarlanan bir yanlışlıktır. Parametrelerin keyfi bir şekilde değiştirilmesi öncekinizi etkiliyorsa, öncekiniz açıkça bilgilendiricidir.

  1. Jeffreys'i kullanmak, tanım olarak , varyans stabilize edici transformasyonu uyguladıktan sonra bir daire kullanmaya eşdeğerdir.

  2. Matematiksel bir bakış açısından, Jeffreys'i önceden kullanmak ve varyans stabilizasyonu dönüşümünü uyguladıktan sonra düz bir önceki kullanmak eşdeğerdir. Bir insan bakış açısından, ikincisi muhtemelen daha iyidir çünkü parametre boşluğu, parametre boşluğunda nerede olursanız olun her yönden farklılıkların aynı olması anlamında "homojen" hale gelir.

Bernoulli örneğinizi düşünün. Bir testte% 99 puan almanın,% 59 ile% 50 arasında olduğu gibi% 90 ile aynı mesafe olması biraz tuhaf değil mi? Varyans dengeleyici dönüşümünüzden sonra eski çift olması gerektiği gibi daha ayrılır. Uzaydaki gerçek mesafeler hakkındaki sezgilerimizle eşleşir. (Matematiksel olarak, varyans dengeleyici dönüşüm, log kaybının eğriliğini kimlik matrisine eşit yapıyor.)


1. Tekdüze bir önceliğin daha önce "bilgilendirici olmayan" anlamına gelmediğini, ancak başka bir değerin üzerinde belirli bir değere değer vermeme hakkındaki yorumum hala geçerli (bu belirli parametreleştirme altında). 2. Bir önceliğin eğilimi çok önemlidir . Önceden uygun olmayan ve verileriniz varsa, uygun bir posteriorunuz olacağı garanti edilmez . Bu yüzden çok ilgili.
Greenparker

1. Ama bütün mesele bu: parametreleştirme keyfidir, bu yüzden bir değerin bir diğerine değer vermediğini söylemek anlamsızdır. 2. Uygulamada, bunu asla bulamadım. Sanırım diğer insanlarla ilgili olabilir.
Neil G

1. Adil nokta. 2. Hangi problemlerle başa çıkacağınızdan emin değilim, ancak bir Jeffreys ile olan basit Gauss olasılığının bile yanlış bir posterioru olabilir. Cevabımı burada görebilirsiniz .
Greenparker

@Yeşilparker Haklısın. Cevabımda neden bununla ilgili olmadığını açıklayacağım.
Neil G

(0,)

5

Vikipedi sayfasında gerçekten "varyans sabitleyici dönüşüm" terimi kullanılmıyor. "Varyans stabilize edici transformasyon" terimi genellikle rastgele değişkenin varyansını sabit yapan dönüşümleri belirtmek için kullanılır. Bernoulli davasında olmasına rağmen, dönüşümde olan şey budur, tam olarak hedef bu değildir. Amaç, sadece varyans dengeleyici değil, düzgün bir dağılım elde etmektir.

Jeffreys'i daha önce kullanmanın temel amaçlarından birinin, dönüşüm altında değişmez olduğunu hatırlayın. Bu, değişkeni yeniden parametreleştirirseniz öncekinin değişmeyeceği anlamına gelir.

1.

Bu Bernoulli davasından önceki Jeffreys, belirttiğiniz gibi bir Beta(1/2,1/2).

pγ(γ)α1γ(1-γ).

İle yeniden parametreleme γ=sin2(θ), we can find the distribution of θ. First lets see that θ=arcsin(γ), and since 0<γ<1, 0<θ<π/2. Recall that sin2(x)+cos2(x)=1.

Fθ(x)=P(θ<x)=P(sin2(θ)<sin2(x))=P(γ<sin2(x))=Fγ(sin2(x))fθ(x)=dFγ(sin2(x)dx=2sin(x)cos(x)pγ(sin2(x))sin(x)cos(x)1sin2(x)(1sin2(x))=1.

Thus θ is the uniform distribution on (0,π/2). This is why the sin2(θ) transformation is used, so that the re-parametrization leads to a uniform distribution. The uniform distribution is now the Jeffreys prior on θ (since Jeffreys prior is invariant under transformation). This answers your first question.

2.

Often in Bayesian analysis one wants a uniform prior when there is not enough information or prior knowledge about the distribution of the parameter. Such a prior is also called a "diffuse prior" or "default prior". The idea is to not commit to any value in the parameter space more than other values. In such a case the posterior is then completely dependent on the data likelihood. Since,

q(θ|x)f(x|θ)f(θ)f(x|θ).

If the transformation is such that the transformed space is bounded, (like (0,π/2) in this example), then the uniform distribution will be proper. If the transformed space is unbounded, then the uniform prior will be improper, but often the resulting posterior will be proper. Although, one should always verify that this is the case.


This idea that you are "not committing to any value" by using a diffuse prior is wrong. The proof is that you can take any transformation of the space and the diffuse prior will mean something completely different.
Neil G

My comment on "not committing to any value" refers only to that particular parameterization. Of course, transformations will change how the mass is distributed (just like in this Bernoulli example).
Greenparker

Like I said below your other comment, the parametrization is arbitrary, which is why the statement "not committing to any value" is meaningless.
Neil G
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.