Metropolis-Hastings yerine Gibbs örneklemesi ne zaman kullanılır?


20

Farklı MCMC algoritmaları vardır:

  • Metropolis-Hastings
  • Gibbs
  • Önem / ret örneklemesi (ilgili).

Metropolis-Hastings yerine neden Gibbs örneklemesi kullanılır? Şüpheliyim, Gibbs örneklemesinde Metropolis-Hastings'e göre çıkarımın daha izlenebilir olduğu durumlar var, ancak ayrıntılarda net değilim.


3
Başımın tepesinden (bir süre geçti, bu yüzden bunu bir cevap olarak yayınlamıyorum), Gibbs çalışırken daha hızlıdır, Metropolis-Hastings daha geniş bir model çeşitliliği ile başa çıkabilir, çünkü sınırlı değildir parametre uzayda dikey adımlar.
Kodiolog

4
Gibbs'in Metropolis-Hastings'in bir örneği olarak görülebileceğinin farkında olabilirsiniz ya da olmayabilir, bu nedenle "Yerel geçiş dağılımlarına sahip Metropolis-Hastings" gibi bir şeyi kastettiğinizi açıklığa kavuşturmak isteyebilirsiniz.
Dougal

Yanıtlar:


22

Öncelikle şunu not edeyim [biraz bilgiçim]

Birkaç çeşit MCMC algoritması vardır: Metropolis-Hastings, Gibbs, önem / ret örneklemesi (ilgili).

önem ve ret örnekleme yöntemleri MCMC algoritmaları değildir çünkü Markov zincirlerine dayandırılmamıştır. Aslında önem örneklemesi hedef dağılımdan örnek üretmez,f ama sadece önem ağırlıkları ω Monte Carlo ile ilgili integrallerin yaklaşımlarında kullanılacak f. Bu ağırlıkları örnek üretmek için olasılıklar olarak kullanmak,f, beklentilerin yansız tahmin edicilerinin f üretilebilir.

İkincisi, soru

Neden birisi Metropolis-Hastings yerine Gibbs örneklemesine gidesin ki? Şüpheliyim, Gibbs örneklemesinde çıkarımın Metropolis-Hastings'e göre daha izlenebilir olduğu durumlar var

bir Metropolis-Hastings örnekleyicisinin Gibbs örnekleyicisi de dahil olmak üzere hemen hemen her şey olabileceğine dair bir cevabı yoktur. Daha önceki ve benzer bir soruya oldukça ayrıntılı bir şekilde cevap verdim . Ama burada fazlalık varsa birkaç nokta ekleyeyim:

Gibbs örneklemesinin başlatılmasının temel nedeni, hala doğru hedefe yakınlaşan bir dizi düşük boyutlu simülasyonlar üreterek boyutsallığın (hem reddi hem de önem örneklemesini etkileyen) lanetini kırmaktı. Hedefin boyutu yakınsama hızını etkilese de. Metropolis-Hastings örnekleyicileri, bir kabul-ret adımında yanlış yoğunluğu düzelterek bir teklife (önem ve ret örneklemesi gibi) dayalı bir Markov zinciri (Gibbs örneklemesi gibi) oluşturmak üzere tasarlanmıştır. Ancak önemli bir nokta, bunlara karşı olmamalarıdır: yani Gibbs örneklemesi, düşük boyutlu koşullu hedefler durumunda karmaşıkla karşılaşıldığında Metropolis-Hastings adımlarını gerektirebilirken, Metropolis-Hastings önerileri (Gibbs) tam koşullarına yaklaşık olarak oluşturulabilir. Resmi bir tanımda, Gibbs örneklemesi, bir kabul olasılığı olan Metropolis-Hasting algoritmasının özel bir örneğidir. (Bu arada,bu alıntıdaki sonuç , istatistiksel amaçlar için ayırdığım gibi, bu örnekleyiciler sayısal cihazlardır.)

Genellikle, Gibbs örneklemesi [düşük boyutlu koşullu simülasyon dizisi yürütme olarak anlaşılır], bu koşullara ayrışmanın kolay ve hızlı bir şekilde gerçekleştirildiği ortamlarda tercih edilir. Bu tür ayrışmaların çok modlu hale getirdiği ve dolayısıyla modlar arasında hareket etmenin zor olduğu ortamlarda (karışım modelleri gibi gizli değişken modeller akla gelir), bir Metropolis Hasting algoritmasında daha küresel bir teklif kullanmak daha yüksek verimlilik sağlayabilir. Ancak dezavantajı Metropolis Hasting algoritmasında teklif dağılımını seçmektir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.