Tırnak, OP'nin yorumlarında @whuber tarafından belirtildiği gibi, "mantıklı bir el çabukluğu" (harika ifade!). Madalyonun bir başı ve kuyruğu olduğunu gördükten sonra söyleyebileceğimiz tek şey, hem "kafa" hem de "kuyruk" olaylarının imkansız olmadığıdır. Böylece tüm olasılık kütlesini "kafa" ya da "kuyruk" üzerine koyan bir ayrık atabiliriz. Ancak bu, daha önce kendi başına üniformaya yol açmaz: soru çok daha incedir. Her şeyden önce biraz arka plan özetleyelim. bağımsız ve aynı şekilde dağıtılmış (şartlı olarak ) jeton fırlatılması göz önüne alındığında, bir madalyonun başı olasılığını teta'nın Bayesci çıkarımı için Beta-Binominal eşlenik modelini düşünüyoruz .n θ p ( θ | x ) x nθnθp(θ|x) başlığında kafa gözlemlediğimizde :xn
p(θ|x)=Beta(x+α,n−x+β)
ettiğini söyleyebiliriz ve , bir "kafa önceden sayısı" ve "kuyrukların önceden numarası ver" (pseudotrials) arasında roller oynar ve etkili bir numune boyutu olarak yorumlanabilir. Bu yoruma, önceki ortalama ve ortalama örnek ağırlıklı ortalaması olarak arka ortalama için iyi bilinen ifadeyi kullanarak da ulaşabiliriz .β α + β ααβα+β xαα+βxn
Baktığımızda , iki hususları yapabilirsiniz:p(θ|x)
- (maksimum cehalet) hakkında önceden bilgimiz olmadığından , sezgisel olarak etkili örnek boyutu "küçük" olmasını bekleriz . Büyük olsaydı, öncekiler oldukça fazla bilgi içermekteydi. Bunu görmenin bir başka yolu, ve ve açısından "küçük" ise , posterior olasılığımız çok bağlı olmayacaktır, çünkü
ve . Çok fazla bilgi içermeyen bir önceliğin bazı veriler ışığında hızla ilgisiz hale gelmesini bekleriz.θα+βαβxn−xx+α≈xn−x+β≈n−x
Aynı zamanda, öncesinde ortalama olduğunu ve dağıtımı ile ilgili önceden bilgi sahibi
biz beklenir . Bu bir simetri argümanıdır - eğer daha iyisini bilmiyorsak , dağılımın 0'a veya 1'e doğru eğilmesinin bir öncül olmasını beklemezdik . Beta dağılımıμprior=αα+βθμprior=0.5
f(θ|α,β)=Γ(α+β)Γ(α)+Γ(β)θα−1(1−θ)β−1
Bu ifade, sadece simetrik civarındadır , eğer
.θ=0.5α=β
Bu iki nedenden ötürü, kullanmayı tercih ettiğimiz ne olursa olsun (Beta ailesine ait - hatırlayın, eşlenik model!), Sezgisel olarak ve "küçük" olmasını bekliyoruz. Beta-Binom modeli için yaygın olarak kullanılan üç bilgilendirici olmayan önceliğin hepsinin bu özellikleri paylaştığını görebiliriz, ancak bunun dışında oldukça farklıdırlar. Ve bu açıktır: hiçbir ön bilgi veya "maksimum cehalet" bilimsel bir tanım değildir, bu yüzden ne tür bir öncekinin "maksimum cehalet" i ifade etmesi, yani, bilgilendirici olmayan bir şey ne demek, gerçekte "maksimum" demek istediğinize bağlıdır. cehalet".α=β=cc
için tüm değerlerin eşdeğer olduğunu söyleyen bir önceliği seçebiliriz , çünkü daha iyisini bilmiyoruz. Yine, bir simetri argümanı. Bu karşılık gelir :θα=β=1
f(θ|1,1)=Γ(2)2Γ(1)θ0(1−θ)0=1
için , yani önceden Kruschke tarafından kullanılan üniforma. Daha resmi olarak, Beta dağılımının diferansiyel entropisi için ifadeyi yazarak, olduğunda maksimize edildiğini görebilirsiniz
. Şimdi, entropi genellikle bir dağıtım tarafından taşınan "bilgi miktarının" bir ölçüsü olarak yorumlanır: daha yüksek entropi daha az bilgiye karşılık gelir. Bu nedenle, bu maksimum entropi prensibini, Beta ailesi içinde, daha az bilgi içeren (maksimum cehalet) öncekinin bu tekdüze olduğunu söylemek için kullanabilirsiniz.θ∈[0,1]α=β=1
OP tarafından kullanılan başka bir bakış açısını seçebilir ve hiçbir bilginin kafa ve kuyruk görmemesine karşılık gelmeyeceğini söyleyebilirsiniz, yani,
α=β=0⇒π(θ)∝θ−1(1−θ)−1
Bu yolu elde etmeden önce önceki Haldane denir . işlevinin küçük bir sorunu vardır - üzerindeki integral sonsuzdur, yani normalleştirme sabiti ne olursa olsun, olamaz uygun bir pdf'ye dönüştü. Aslında, Haldane önce uygun bir olan PMF olasılık 0.5 koyar, ile 0.5 için tüm diğer değerleri ve 0 olasılık . Ancak, taşınmayalım - sürekli bir parametre için , uygun bir pdf'ye karşılık gelmeyen öncelikler yanlış öncelikler olarak adlandırılırθ−1(1−θ)−1I=[0,1]θ=0θ=1θθ. Daha önce belirtildiği gibi, Bayesci çıkarım için önemli olan tek şey posterior dağılım olduğundan, posterior dağılım uygun olduğu sürece uygun olmayan öncelikler kabul edilebilir. Haldane örneğinde, örneğimizde en az bir başarı ve bir başarısızlık varsa posterior pdf'nin uygun olduğunu kanıtlayabiliriz. Haldane'yi sadece en az bir kafa ve bir kuyruk gözlemlediğimizde kullanabiliriz.
Haldane'nin önceden bilgilendirici olmadığı düşünülebilecek başka bir anlam daha var: posterior dağılımın ortalaması şimdi
, arasında frequentist MLE tahminidir yani kafaları örnek frekansı,
para çevirme sorun binom modeli. Ayrıca, için güvenilir aralıklar Wald güven aralıklarına karşılık gelir. Frekansçı yöntemler bir önceliği belirtmediği için, önceki Haldane'nin bilgilendirici olmadığı veya önceki bilginin sıfırına karşılık geldiği söylenebilir, çünkü bir frekansçının sıkça yaptığı "aynı" çıkarımlara yol açar. θθα+xα+β+n=xnθθ
Son olarak, problemin parametrelendirilmesine bağlı olmayan bir önceliği, yani Beta-Binom modeli için karşılık gelen Jeffreys'i kullanabilirsiniz.
α=β=12⇒π(θ)∝θ−12(1−θ)−12
θλ=log(θ1−θ)θ
Özetlemek gerekirse, Beta-Binom modelinde daha önce bilgilendirici olmayanlar için kesin bir seçenek yoktur. Seçtiğiniz, sıfır ön bilgi olarak ne demek istediğinize ve analizinizin hedeflerine bağlıdır.