Düzenlemeler: Basit bir örnek ekledim: ortalamasının . Ayrıca, güvenilebilir aralıklarla güven aralıklarını eşleştirmeyen güven aralıklarının neden kötü olduğunu da biraz açıkladım.
Ben, oldukça dindar bir Bayesian, bir çeşit inanç krizinin ortasındayım.
Benim sorunum şu. Bazı IID verilerini analiz etmek istediğimi varsayın . Benim yapacağım şey:
önce, koşullu bir model önerin:
Ardından : bir öncelik seçin.p ( θ )
Son olarak, Bayes kuralını uygulayın, posterioru hesaplayın: (veya eğer hesaplanamazsa buna biraz yaklaşın) ve hakkında sahip olduğum tüm soruları yanıtlayınθ
Bu mantıklı bir yaklaşım: eğer verilerinin gerçek modeli gerçekten "içeride" ise (bazı değere karşılık gelir ), o zaman metodumun kabul edilebilir olduğunu söylemek için istatistiksel karar teorisini çağırabilirim (bkz. Robert’in Ayrıntılar için "Bayesian seçimi"; "Bütün istatistikler" de ilgili bölümde açık bir açıklama sunar).θ 0
Ancak, herkesin bildiği gibi, modelimin doğru olduğunu kabul etmek oldukça kibirli: doğa neden düşündüğüm modeller kutusunun içine düzgün bir şekilde düşmeli? Veri gerçek modeli varsaymak çok daha gerçekçi olduğunu farklıdır tüm değerler için . Bu genellikle "yanlış tanımlanmış" bir model olarak adlandırılır.p ( X | θ ) θ
Benim sorunum, bu daha gerçekçi, yanlış tanımlanmış bir durumda, sadece Maksimum Olabilirlik Tahmincisi'ni (MLE) hesaplamak yerine, Bayesian (yani: posterior dağılımını hesaplamak) konusunda iyi bir tartışmam yok:
Nitekim, Kleijn, vd Vaart (2012) 'ye göre , hatalı belirtilen durumda, posterior dağılım:
olarak yakınsayan bir merkezlenmiş bir Dirac dağılımınaİçeride ISTV melerin RWMAIWi'nin M L
posterior eşleşmesinin güvenilir aralıklarının için güven aralıklarının güvenilir olmasını sağlamak için doğru varyansa sahip değildir (iki değer aynı olmazsa) . (Unutma ki, güven aralıkları açık bir şekilde Bayesyanların aşırı derecede umursadığı bir şey olmasa da, bu niteliksel olarak posterior dağılımın özünde yanlış olduğu anlamına gelir;
Bu nedenle, ek bir özellik olmadan hesaplamalı bir prim (genel olarak Bayesian çıkarımı, MLE'den daha pahalıdır) ödüyoruz.
Böylece, nihayet sorum şu: model yanlış tanımlandığında daha basit MLE alternatifi üzerinde Bayesian çıkarımını kullanmak için teorik veya ampirik olan herhangi bir tartışma var mı?
(Sorularımın genellikle belirsiz olduğunu bildiğimden, lütfen bir şey anlamadığınızda bana bildirin: tekrar yazmaya çalışacağım)
Düzenleme: basit bir örnek ele alalım: bir Gauss modelinde ortalamasını ( daha da basitleştirmek için bilinen varyans ile). Biz Gauss önce düşünün: Biz göstermek , önceki ortalama öncesinde ters Varyans. Let ampirik acımasız olma . Son olarak, not: . σ μ 0 β 0 ˉ X X i μ = ( β 0 μ 0 + n
Posterior dağılımı:
Doğru olarak belirtilen durumda ( gerçekten Gauss dağılımına sahipse), bu posterior aşağıdaki iyi özelliklere sahiptir.
Eğer paylaşılan ortalamalarının önceki dağılımdan seçildiği hiyerarşik bir modelden üretilirse, posterior güvenilir aralıkları tam kapsamaya sahiptir. Verilere bağlı olarak, herhangi bir aralıkta olma olasılığı, posteriorun bu aralığa atfetme olasılığına eşittir θ
Öncelik doğru olmasa bile, güvenilir aralıklar limitinde doğru kapsamaya sahiptir, bunun içindeki posterior üzerindeki önceki etkinin ortadan kalkması
posterior ayrıca iyi sıklık özelliklerine sahiptir: posteriordan oluşturulan herhangi bir Bayesian tahmin edicisinin kabul edilebilirliği garanti edilir, posterior ortalamanın, ortalama, güvenilir aralıklar, asimptotik olarak, güven aralıklarının etkin bir tahmincisidir (Cramer-Rao anlamında).
Belirtilen durumda, bu özelliklerin çoğu teori tarafından garanti edilmez. Fikirleri düzeltmek için, gerçek modelinin bunun yerine Öğrenci dağılımları olduğunu varsayalım . Güvence altına alabileceğimiz tek özellik (Kleijn ve diğerleri), posterior dağılımın gerçek ortalamasına limitinde yoğunlaştığıdır . Genel olarak, tüm kapsama özellikleri ortadan kalkacaktı. Daha da kötüsü, genel olarak, bu sınırlamada, kapsam özelliklerinin temelde yanlış olduğunu garanti edebiliriz: posterior dağılım, uzayın çeşitli bölgelerine yanlış olasılık getirmektedir.X i n → ∞