Bozuk para çevirmede beta dağılımı


12

Kruschke'nin Bayesli kitabı, bir bozuk parayı çevirmek için beta dağıtımının kullanılmasıyla ilgili olarak,

Örneğin, madalyonun bir kafa tarafı ve bir kuyruk tarafı olduğu bilgisinden başka önceden bilgimiz yoksa, bu daha önce bir = 1 ve b = 1'e karşılık gelen bir kafa ve bir kuyruğu gözlemlemekle eşdeğerdir.

Neden hiçbir bilgi bir kafa ve bir kuyruk görmeyle aynı olmaz - 0 kafa ve 0 kuyruk benim için daha doğal görünüyor.


9
(+1) Tırnak yanıltıcıdır, çünkü okuyucuyu çok farklı iki “gözlem” duygusunu eşitlemeye davet eder. Burada kullanılan his , madalyonun kendisini denetlemektir - aslında, deney düzeneğini anladığınız anlamına gelir. Ancak bunun olduğu sonucuna varmak, "gözlem" in farklı bir şekilde deneyi iki kez yürüttüğü anlamında yeniden yorumlanmasına dayanır. Bu tür bir mantıksal el çabukluğu entelektüel bir dışlamadır; sadece Bayes yöntemlerinin keyfi ve mantıksal olarak kaygan görünmesini sağlar, ki bu üzücüdür. a=b=1
whuber

Teklif yanlış: Beta'nın önceki sürümleri için bir gerekçe yok (1, 1).
Neil G

Biri bunun tek bir gözlemin bilgi değerinde olduğunu söyleyebilir - yarım kafa / yarım kuyruk.
Glen_b

4
Lütfen kitaptaki bu pasajın amaçlanan amacını unutmayın. Uygulamalı kullanıcılara başlamak için basit bir sezgisel gerekçe olması gerekiyordu , açıkçası matematiksel bir argüman değil ve kesinlikle beta (1,1) 'in en iyi veya tek belirsiz olduğu iddiası değil. Kitabın başka yerlerinde, belirsiz önceliklerdeki mütevazı değişimlerin orta derecede büyük miktarda veri olduğunda posteriorda önemli bir fark olmadığını göstermek için acı çekiyorum. (Elbette öncekine son derece duyarlı Bayes faktörleri hariç!) Diğer yazılarda daha önce Haldane'yi tartıştım.
John K. Kruschke

Yanıtlar:


17

Tırnak, OP'nin yorumlarında @whuber tarafından belirtildiği gibi, "mantıklı bir el çabukluğu" (harika ifade!). Madalyonun bir başı ve kuyruğu olduğunu gördükten sonra söyleyebileceğimiz tek şey, hem "kafa" hem de "kuyruk" olaylarının imkansız olmadığıdır. Böylece tüm olasılık kütlesini "kafa" ya da "kuyruk" üzerine koyan bir ayrık atabiliriz. Ancak bu, daha önce kendi başına üniformaya yol açmaz: soru çok daha incedir. Her şeyden önce biraz arka plan özetleyelim. bağımsız ve aynı şekilde dağıtılmış (şartlı olarak ) jeton fırlatılması göz önüne alındığında, bir madalyonun başı olasılığını teta'nın Bayesci çıkarımı için Beta-Binominal eşlenik modelini düşünüyoruz .n θ p ( θ | x ) x nθnθp(θ|x) başlığında kafa gözlemlediğimizde :xn

p(θ|x)=Beta(x+α,nx+β)

ettiğini söyleyebiliriz ve , bir "kafa önceden sayısı" ve "kuyrukların önceden numarası ver" (pseudotrials) arasında roller oynar ve etkili bir numune boyutu olarak yorumlanabilir. Bu yoruma, önceki ortalama ve ortalama örnek ağırlıklı ortalaması olarak arka ortalama için iyi bilinen ifadeyi kullanarak da ulaşabiliriz .β α + β ααβα+β xαα+βxn

Baktığımızda , iki hususları yapabilirsiniz:p(θ|x)

  1. (maksimum cehalet) hakkında önceden bilgimiz olmadığından , sezgisel olarak etkili örnek boyutu "küçük" olmasını bekleriz . Büyük olsaydı, öncekiler oldukça fazla bilgi içermekteydi. Bunu görmenin bir başka yolu, ve ve açısından "küçük" ise , posterior olasılığımız çok bağlı olmayacaktır, çünkü ve . Çok fazla bilgi içermeyen bir önceliğin bazı veriler ışığında hızla ilgisiz hale gelmesini bekleriz.θα+βαβxnxx+αxnx+βnx
  2. Aynı zamanda, öncesinde ortalama olduğunu ve dağıtımı ile ilgili önceden bilgi sahibi biz beklenir . Bu bir simetri argümanıdır - eğer daha iyisini bilmiyorsak , dağılımın 0'a veya 1'e doğru eğilmesinin bir öncül olmasını beklemezdik . Beta dağılımıμprior=αα+βθμprior=0.5

    f(θ|α,β)=Γ(α+β)Γ(α)+Γ(β)θα1(1θ)β1

    Bu ifade, sadece simetrik civarındadır , eğer .θ=0.5α=β

Bu iki nedenden ötürü, kullanmayı tercih ettiğimiz ne olursa olsun (Beta ailesine ait - hatırlayın, eşlenik model!), Sezgisel olarak ve "küçük" olmasını bekliyoruz. Beta-Binom modeli için yaygın olarak kullanılan üç bilgilendirici olmayan önceliğin hepsinin bu özellikleri paylaştığını görebiliriz, ancak bunun dışında oldukça farklıdırlar. Ve bu açıktır: hiçbir ön bilgi veya "maksimum cehalet" bilimsel bir tanım değildir, bu yüzden ne tür bir öncekinin "maksimum cehalet" i ifade etmesi, yani, bilgilendirici olmayan bir şey ne demek, gerçekte "maksimum" demek istediğinize bağlıdır. cehalet".α=β=cc

  1. için tüm değerlerin eşdeğer olduğunu söyleyen bir önceliği seçebiliriz , çünkü daha iyisini bilmiyoruz. Yine, bir simetri argümanı. Bu karşılık gelir :θα=β=1

    f(θ|1,1)=Γ(2)2Γ(1)θ0(1θ)0=1

    için , yani önceden Kruschke tarafından kullanılan üniforma. Daha resmi olarak, Beta dağılımının diferansiyel entropisi için ifadeyi yazarak, olduğunda maksimize edildiğini görebilirsiniz . Şimdi, entropi genellikle bir dağıtım tarafından taşınan "bilgi miktarının" bir ölçüsü olarak yorumlanır: daha yüksek entropi daha az bilgiye karşılık gelir. Bu nedenle, bu maksimum entropi prensibini, Beta ailesi içinde, daha az bilgi içeren (maksimum cehalet) öncekinin bu tekdüze olduğunu söylemek için kullanabilirsiniz.θ[0,1]α=β=1

  2. OP tarafından kullanılan başka bir bakış açısını seçebilir ve hiçbir bilginin kafa ve kuyruk görmemesine karşılık gelmeyeceğini söyleyebilirsiniz, yani,

    α=β=0π(θ)θ1(1θ)1

    Bu yolu elde etmeden önce önceki Haldane denir . işlevinin küçük bir sorunu vardır - üzerindeki integral sonsuzdur, yani normalleştirme sabiti ne olursa olsun, olamaz uygun bir pdf'ye dönüştü. Aslında, Haldane önce uygun bir olan PMF olasılık 0.5 koyar, ile 0.5 için tüm diğer değerleri ve 0 olasılık . Ancak, taşınmayalım - sürekli bir parametre için , uygun bir pdf'ye karşılık gelmeyen öncelikler yanlış öncelikler olarak adlandırılırθ1(1θ)1I=[0,1]θ=0θ=1θθ. Daha önce belirtildiği gibi, Bayesci çıkarım için önemli olan tek şey posterior dağılım olduğundan, posterior dağılım uygun olduğu sürece uygun olmayan öncelikler kabul edilebilir. Haldane örneğinde, örneğimizde en az bir başarı ve bir başarısızlık varsa posterior pdf'nin uygun olduğunu kanıtlayabiliriz. Haldane'yi sadece en az bir kafa ve bir kuyruk gözlemlediğimizde kullanabiliriz.

    Haldane'nin önceden bilgilendirici olmadığı düşünülebilecek başka bir anlam daha var: posterior dağılımın ortalaması şimdi , arasında frequentist MLE tahminidir yani kafaları örnek frekansı, para çevirme sorun binom modeli. Ayrıca, için güvenilir aralıklar Wald güven aralıklarına karşılık gelir. Frekansçı yöntemler bir önceliği belirtmediği için, önceki Haldane'nin bilgilendirici olmadığı veya önceki bilginin sıfırına karşılık geldiği söylenebilir, çünkü bir frekansçının sıkça yaptığı "aynı" çıkarımlara yol açar. θθα+xα+β+n=xnθθ

  3. Son olarak, problemin parametrelendirilmesine bağlı olmayan bir önceliği, yani Beta-Binom modeli için karşılık gelen Jeffreys'i kullanabilirsiniz.

    α=β=12π(θ)θ12(1θ)12

    θλ=log(θ1θ)θ

Özetlemek gerekirse, Beta-Binom modelinde daha önce bilgilendirici olmayanlar için kesin bir seçenek yoktur. Seçtiğiniz, sıfır ön bilgi olarak ne demek istediğinize ve analizinizin hedeflerine bağlıdır.


0

p(θ=0)=0p(θ=1)=0θp(θ)=Beta(h+1,(Nh)+1)


Cevabınızı anlamakta zorlandım.
Michael R.Chernick5

pθ=0θ=1
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.