@Tristan: Umarım genel noktayı nasıl olabildiğince şeffaf hale getirmeye çalıştığım için yanıtınızı yeniden düzenlemem önemli değildir.
Bana göre, birincilİstatistiklerdeki içgörü, Normal (mu, sigma) gibi bir olasılık üreten model tarafından üretildiği gibi değişen tekrarlanan gözlemleri kavramsallaştırmaktır. 1800'lü yılların başlarında, eğlenen olasılık üreten modeller genellikle sadece mu ve sigma gibi parametrelerin rolü ile ölçüm hataları ve bunların önceleri karıştırılmıştır. Frekansçı yaklaşımlar parametreleri sabit ve bilinmeyen olarak aldı ve bu nedenle olasılık üreten modeller sadece olası gözlemleri içeriyordu. Bayesci yaklaşımlar (uygun önceliklerle birlikte) hem olası bilinmeyen parametreler hem de olası gözlemler için olasılık oluşturma modellerine sahiptir. Bu ortak olasılık üreten modeller - daha genel olarak ifade etmek gerekirse - olası bilinmeyenleri (parametreler gibi) ve bilenleri (gözlemler gibi) kapsamlı bir şekilde açıklar. Verdiğiniz Rubin bağlantısında olduğu gibi,
Bu aslında Galton tarafından 1800'lerin sonunda iki aşamalı bir quincunx'ta çok açık bir şekilde tasvir edilmiştir. Bkz. Şekil 5> Stigler, Stephen M. 2010. Darwin, Galton ve istatistik
aydınlanma. Kraliyet İstatistik Kurumu Dergisi: Seri A
173 (3): 469-482 . .
Eşdeğerdir, ancak belki daha şeffaftır.
posterior = önceki (olası bilinmeyenler | olası bilinenler = bilir)
posterior ~ previous'den (olası bilinmeyenler) * p (olası bilinenler = bilir | olası bilinmeyenler)
Birincisi olarak eksik değerler için pek yeni bir şey eksik değer üreten bir olasılık modeli için olası bilinmeyenler eklemez ve eksiklere olası bilinenlerden biri olarak davranır (yani 3. gözlem eksikti).
Son zamanlarda, yaklaşık Bayes hesaplaması (ABC), bu yapıcı iki aşamalı simülasyon yaklaşımını p (olası bilir = bilir | olası bilinmeyenler) çözülemediğinde ciddiye almıştır. Ancak bu çözülebildiğinde ve MCMC örneklemesinden kolayca elde edilebildiğinde (veya önceki eşlenik nedeniyle posterior doğrudan mevcut olduğunda bile) Rubin'in daha kolay anlaşılmasını sağlayan bu iki aşamalı örnekleme yapısı hakkındaki görüşü göz ardı edilmemelidir.
Örneğin, @Zen'in burada ne yaptığını yakalayacağından eminim Bayesyalılar : olabilirlik fonksiyonunun köleleri? çünkü bir kişinin önceden bilinmeyen (c) aşamasından olası bir bilinmeyen c çizilmesi ve daha sonra p (olası 2 | c) olarak rastgele bir nesil olmayacak c (aşama 2) olduğu göz önüne alındığında olası bilinen (veriler) çizilmesi gerekirdi bir ve sadece bir dışında bir olasılık olmamalı c.
@Zen'den “Ne yazık ki, genel olarak, bu istatistiksel bir modelin geçerli bir tanımı değildir. Sorun şu ki, tanım gereği,fXben∣ C(⋅ ∣ c ) Hemen hemen her olası değer için bir olasılık yoğunluğu olmalıdırcgenel olarak açıkça yanlıştır. ”