Şu anda R'den JAGS kullanarak hiyerarşik Bayesian modelleri ve ayrıca Python ( "Hackerlar için Bayesian Yöntemleri" ) kullanarak pymc öğreniyorum .
Bu yazıdan biraz sezgi alabilirim : "sanki", bir şekilde bilmek istediğiniz karmaşık dağıtımdan bağımsız örnekler almayı başarmış gibi görünen bir yığın sayı ile sonuçlanacaksınız. " Koşullu olasılığı verebileceğim gibi bir şey, o zaman koşullu olasılığa dayalı hafızasız bir süreç oluşturabilirim. İşlemi yeterince uzun süre oluşturduğumda, ortak olasılık birleşebilir. Ve sonra üretilen dizinin sonunda bir yığın sayı alabilirim. Sanki karmaşık eklem dağılımından bağımsız örnekler alıyorum. Örneğin, histogram yapabilirim ve dağıtım fonksiyonuna yaklaşabilir.
O zaman benim sorunum, bir MCMC belirli bir model için yakınsama olup olmadığını kanıtlamak gerekir mi? Bunu bilmek için motive oldum çünkü daha önce GMM ve LDA (grafik modeller) için EM algoritmasını öğrendim. Eğer yakınsamasını kanıtlamadan MCMC algoritmasını kullanabilirsem, EM'den çok daha fazla zaman kazanabilir. Beklenen günlük olabilirlik fonksiyonunu hesaplamak zorunda olacağım (posterior olasılığı hesaplamak zorunda kalacağım) ve sonra beklenen günlük olasılığını en üst düzeye çıkaracağım. Görünüşe göre MCMC'den daha hantal (sadece şartlı olasılığı formüle etmem gerekiyor).
Ayrıca, olasılık fonksiyonunun ve önceki dağıtımın eşlenik olup olmadığını merak ediyorum. MCMC'nin yakınsama gerektiği anlamına mı geliyor? MCMC ve EM'nin sınırlarını merak ediyorum.