Önceden Düzgün Olan Bayes Posterior Olasılık Terminolojisi


11

Eğer Düzgün , ve Bin daha sonra arka ortalama ile verilir .p~(0,1)X~(n,p)pX+1n+2

Bu tahminci için ortak bir ad var mı? Birçok insanın problemini çözdüğünü buldum ve insanları bir referansa yönlendirmek istiyorum, ancak bunun için doğru adı bulamadım.

Bunun, bir istatistik 101 kitabında "+ 1 / + 2 tahmincisi" gibi bir şey olduğunu hatırlıyorum, ancak bu çok aranabilir bir terim değil.

Yanıtlar:


11

Önceki Unif(0,1)Beta(α0=1,β0=1) ve n denemede x başarı gösteren Binom(n,θ) olasılığı ile posterior dağılım B e t a ( α n = 1 + x ,xnBeta(αn=1+x,βn=1+nx). (Bu, önceki çekirdeklerin ve posteriorun çekirdeğini alma olasılığının çarpılmasıyla kolayca görülebilir.)

Daha sonra arka ortalama olan

μn=αnαn+β=x+1n+2.

Bayes bağlamında, sadece posterior ortalama terminolojisini kullanmak en iyisi olabilir. (Posterior dağılımın medyanı ve PDF'sinin maksimum değeri posterior bilgileri özetlemek için de kullanılmıştır.)

Notlar: (1) Burada bilgi vermeden önceki dağıtım olarak Beta(1,1) kullanıyorsunuz. Ses Teorik olarak, bazı Bayes istatistikçiler kullanmayı tercih Jeffreys önce Beta(12,12)önceden bilgilendirici olmayan olarak. Sonra arka ortalamaμn=x+.5n+1.

(2) frequentist güven aralıkları Agresti ve Coull tahmincisi dayalı bir güven aralığını elde etmek için örnek "iki başarıları ve iki başarısızlıkları ekleyerek" ileri sürmüşlerdir yaparken p = x + 2p^=x+2n+4,ile ara geleneksel Wald daha doğru kapsama olasılıkları (sahip olan p =Xp^=xn).David Moore bunuyaygın olarak kullanılan bazı temel istatistik metinlerindeartı dörttahmincisiolarak adlandırdıve terminoloji diğerleri tarafından kullanıldı. Tahmincinizin 'artı iki' ve Jeffries'in 'artı bir' olduğunu gördüğüme şaşırmam.

(3) Bu tahmin edicilerin tümü 'tahmin ediciyi 1/2'ye daraltma' etkisine sahiptir ve bu nedenle bunlara 'büzülme tahmin edicileri' (özellikle James-Stein çıkarımında çok daha yaygın olarak kullanılan bir terim) denir. @Taylor tarafından Yanıt (+1) konusuna bakın.



2
evet, ama bu terminolojiye nasıl yardımcı olur ?
BruceET

Yazdığınız derivasyona yardımcı olur. Sanırım bazı insanlar bu soruyla aslında türetmenin kendisini arayarak karşılaşabilirler.
Royi

3
(2) gerçekten ilgilendiğim şey bu. Tahmin edicinin tamamen Frequentist gerekçeler için sunulduğunu fark etmedim. Bunu bir çözüm olarak reçete ettiğim durumlarda, her zaman belirli bir multinomiyal daha önce görülmediğinde (örneğin harf sayısında kümeleme ve bir kümede "z" içermeyen) bir olasılık nasıl hesaplanacağı gibi bir şeydir. CI'lerin kapsama olasılıkları ile ilgilidir. Teşekkür ederim!
Cliff AB

Pratik bir uygulamada, ne kapsama olasılığını ne de CI'nin ortalama uzunluğunu göz ardı edebilirsiniz. Aksi takdirde, binomial başarı olasılığı tamamen bilgilendirici olmayan aralık için çok amaçlı bir% 100 CI ile mutlu olurdu // Bu Yorumda soruyu sorma nedeninizi açıkça belirttiğiniz için oy verin. (0,1).
BruceET

10

Laplace'ın yumuşatması veya Laplace'ın halefiyet kuralı olarak adlandırılır , çünkü Pierre-Simon Laplace güneşin yarın tekrar doğma olasılığını tahmin etmek için kullandı: "Böylece bir olayın birkaç kez gerçekleştiğini, tekrar olma olasılığı bir dahaki sefere birim tarafından artırılan bu sayıya eşittir, aynı sayıya iki birim arttırılır. "

Laplace yakınındaki seçme oteller


(+1) tarihsel referans için
BruceET

(+1) Hem bu hem de @ BruceET'in cevapları farklıydı ancak sorumun doğru cevaplarıydı.
Cliff AB

5

.5


2
(+1) Bu doğrudur, bir büzülme tahmin edicisidir. Binom / multinomial dava için özel bir isim istedim, böylece diğer araştırmacıları tam olarak bu tahmin edicideki materyale yönlendirebilirim, böylece sadece "istediğiniz cevabı alana kadar şeylere 1 ekleyin" demediğimi düşünmezler. Bayesci istatistiklerin ne olduğunu açıklamanın başından başlamak zorunda değilsiniz.
Cliff AB
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.