Gereksiz ortalama parametre ayarı neden Gibbs MCMC'yi hızlandırıyor?


12

Gelman & Hill (2007) kitabında (Regresyon ve Çok Düzeyli / Hiyerarşik Modeller Kullanılarak Veri Analizi), yazarlar gereksiz ortalama parametreler eklemenin MCMC'yi hızlandırmaya yardımcı olabileceğini iddia etmektedir.

Verilen örnek, içiçe yerleştirilmemiş bir "uçuş simülatörü" modelidir (Denk 13.9):

yiN(μ+γj[i]+δk[i],σy2)γjN(0,σγ2)δkN(0,σδ2)

ve ortalama parametrelerini aşağıdaki gibi ekleyerek yeniden parametrelendirmeyi :μγμδ

γjN(μγ,σγ2)δkN(μδ,σδ2)

Sunulan tek gerekçe şudur (s. 420):

Simülasyonların tüm vektör (veya ) 'nın sıfırdan uzak olduğu bir konfigürasyonda sıkışması mümkündür (ortalama 0 ile bir dağıtım atanmış olsalar bile). Nihayetinde, simülasyonlar doğru dağılıma yaklaşacak, ancak beklemek zorunda değiliz.γδ

Gereksiz ortalama parametreler bu soruna nasıl yardımcı olur?

Bana öyle geliyor ki iç içe olmayan model yavaşça ve ile ilişkili olduğundan yavaştır . (Gerçekten, eğer biri artarsa, toplamı veriler tarafından "sabit" olduğu göz önüne alındığında diğeri aşağı inmelidir). Gereksiz ortalama parametreleri ve arasındaki ilişkiyi veya başka bir şeyi tamamen azaltmaya yardımcı olur mu?γδγδ


Bu özel sorun hakkında sezgisel bir içgörü mü arıyorsunuz (örn. - korelasyonu yoksa - ve - korelasyonu ), yoksa genel sorun ( Hiyerarşik merkezleme kavramı)? İkinci durumda, çok daha gevşek olan ve az ya da çok nasıl çalıştığını gösteren bir kanıt ya da sezgiye yakın olan sezgi ister misiniz? δ γ μ δ μγδγμδμ
Sextus Empiricus

Genel olarak hiyerarşik merkezleme kavramı hakkında sezgisel bir görüş istiyorum (çünkü söz konusu özel durum doğrudan hiyerarşik merkezleme uygulamasıdır). Anlamak istediğim temel nokta şudur: grup seviyesindeki varyans toplam varyansın önemli bir parçasıysa , hiyerarşik merkezleme neden çalışır ? Gelfand ve ark. bunu matematiksel olarak kanıtlar (yani korelasyonu türetir ve sınırlayıcı davranışını bulur), ancak sezgisel bir açıklama yapmaz.
Heisenberg

Yanıtlar:


4

Kaçınılması gereken korelasyon ile ve .γ j δ kμγjδk

Değiştirerek ve içinde hesaplama merkez etrafında o alternatif parametrelerle modeli korelasyon azalır.δ k μγjδkμ

Çok net bir açıklama bölümü için bkz. 25.1 'Hiyerarşik merkezleme nedir?' William J. Browne ve diğerleri tarafından yayınlanan (serbestçe kullanılabilir) 'MLwiN'de MCMC tahmini' kitabında . http://www.bristol.ac.uk/cmm/software/mlwin/download/manuals.html


'MCMC tahmini MlwiN' Bölüm 25.1, bu "hiyerarşik merkezleme" tekniğini tarif eder, ancak çalıştığını iddia etmekten başka herhangi bir ayrıntıya girmez. Referanslarını inceleyerek, bu tekniğin gerçek kanıtının, normal lineer karışık modeller için verimli parametrelendirmeler makalesinde , Gelfand ve arkadaşları, Biometrika cilt 82 sayı 3'te sunulduğunu buldum .
Heisenberg

Yukarıdaki makalede, açıklanmadan normal dağılımın özellikleri kullanılmaktadır. Kevin Murphy'nin Gauss dağılımının Conjugate Bayesian analizinde bu özelliklerin kanıtlarını buldum .
Heisenberg

Ne yazık ki, hala bu tekniğin neden işe yaradığına dair sezgisel bir açıklama görmedim.
Heisenberg

Geç oldu ama sanırım bu makale aradığın şey olabilir
baruuum
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.