Bayes faktörü Bayesian hipotez testinde ve Bayes modeli seçiminde iki marjinal olasılığa göre tanımlanmıştır: iid örneği verildi (x1,…,xn) ve ilgili örnekleme yoğunlukları f1(x|θ) ve f2(x|η), karşılık gelen önceliklerle π1 ve π2, iki modeli karşılaştırmak için Bayes faktörü
B12(x1,…,xn)=defm1(x1,…,xn)m2(x1,…,xn)=def∫∏ni=1f1(xi|θ)π1(dθ)∫∏ni=1f2(xi|η)π2(dη)
Şu anda incelediğim
bir kitapta yukarıdaki Bayes faktörününB12(x1,…,xn)"bireysel faktörlerin [Bayes faktörleri] birlikte çoğaltılmasıyla oluşur" (s.118). Birisi ayrışma kullanırsa bu resmen doğrudur
B12(x1,…,xn)=m1(x1,…,xn)m2(x1,…,xn)=m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)×m1(xn−1|xn−2,…,x1)m2(xn−1|xn−2,…,x1)×⋯⋯×m1(x1)m2(x1)
ama bu ayrıştırmada hesaplama avantajı,m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)
orijinal hesaplama ile aynı hesaplama çabasını gerektirirm1(x1,…,xn)m2(x1,…,xn)
yapay oyuncak örnekleri dışında.
Soru: Bayes faktörünü güncellemenin genel ve hesaplama açısından verimli bir yolu var mı?B12(x1,…,xn) için
B12(x1,…,xn+1) tüm marjinallerin yeniden hesaplanmasını gerektirmeyen m1(x1,…,xn) ve
m2(x1,…,xn)?
Benim sezgim, aslında Bayes faktörlerini tahmin etmeye devam eden parçacık filtrelerinin yanı sıra B12(x1, … ,xn) her seferinde yeni bir gözlem, bu soruyu cevaplamanın doğal bir yolu yoktur.