«gibbs» etiketlenmiş sorular

Gibbs örnekleyici, her değişken veya değişken grubu için tam koşullu dağılımlardan örneklemeye dayalı, Bayes istatistiklerinde yaygın olarak kullanılan Markov Zinciri Monte Carlo simülasyonunun basit bir biçimidir. İsim, Geman ve Geman (1984) tarafından Gibbs rasgele alan modellemesinde kullanılan yöntemden gelmektedir.

4
OpenBugs vs JAGS
Bayesian modellerini tahmin etmek için bir BUGS tarzı ortamı denemek üzereyim. OpenBugs veya JAGS arasında seçim yaparken göz önünde bulundurulması gereken önemli avantajlar var mı? Öngörülebilir bir gelecekte biri diğerinin yerini alacak mı? Seçilen Gibbs Sampler'ı R ile kullanacağım. Henüz belirli bir uygulamam yok, ama hangisini tutacağım ve öğreneceğime karar …
41 r  software  bugs  jags  gibbs 

1
Metropolis Hastings, Gibbs, Önem ve Reddetme örneklemesi arasındaki fark nedir?
MCMC yöntemlerini öğrenmeye çalıştım ve Metropolis Hastings, Gibbs, Önem ve Reddetme örneklemesine rastladım. Bu farklılıkların bazıları açık olmasına rağmen, yani, tam şartlara sahip olduğumuzda Gibbs'in Metropolis Hastings'in ne kadar özel bir durum olduğu açık olsa da, diğerleri Gibbs örnekleyicisinde MH kullanmak istediğimizde olduğu gibi, daha az belirgindir. Bunların her biri …

3
İyi bir Gibbs örnekleme dersi ve referansları
Gibbs Sampling'in nasıl çalıştığını öğrenmek istiyorum ve ara ödev için iyi bir temel arıyorum. Bilgisayar bilimi geçmişim ve temel istatistik bilgim var. Etrafında iyi bir şeyler okuyan var mı? nereden öğrendin? Teşekkürler
29 references  gibbs 

1
İnsanların bayesian çıkarım için kullandıkları ders kitabı MCMC algoritmaları üzerindeki iyi bilinen bazı gelişmeler nelerdir?
Bazı problemler için bir Monte Carlo simülasyonu kodlarken ve model yeterince basit olduğunda, Gibbs örneklemesi için çok basit bir ders kitabı kullanıyorum. Gibbs örneklemesini kullanmak mümkün olmadığında, yıllar önce öğrendiğim Metropolis-Hastings ders kitabını kodlarım. Ona verdiğim tek düşünce atlama dağılımını veya parametrelerini seçmek. Bu ders kitabı seçeneklerinde gelişen yüzlerce yüzlerce …

2
Genel MH-MCMC'ye karşı Gibbs örneklemesi
Gibbs örnekleme ve Metropolis Hastings algoritması hakkında biraz okuma yapıyorum ve birkaç sorum var. Anladığım kadarıyla, Gibbs örneklemesi durumunda, büyük bir çok değişkenli problemimiz varsa, koşullu dağıtımdan örnek alıyoruz, yani bir değişkeni örneklerken, diğerlerini sabit tutarken MH'de tam eklem dağılımından örnek alıyoruz. Belgenin söylediği bir şey, önerilen örneğin Gibbs Sampling'de …


1
Gibbs Sampling algoritması ayrıntılı dengeyi garanti ediyor mu?
Üst düzey yetki 1'de Gibbs Sampling'in Markov Zinciri Monte Carlo örneklemesi için Metropolis-Hastings algoritmasının özel bir örneği olduğunu düşünüyorum. MH algoritması her zaman ayrıntılı denge özelliği ile bir geçiş olasılığı sağlar; Gibbs'ın da olmasını bekliyorum. Peki aşağıdaki basit durumda nerede yanlış yaptım? İki ayrık (basitlik için) değişken üzerinde hedef dağılım …
17 mcmc  gibbs 

1
Stan
Buradan indirilebilen Stan belgelerini inceliyordum . Özellikle Gelman-Rubin teşhisini uygulamalarıyla ilgileniyordum. Orijinal Gelman ve Rubin kağıdı (1992) potansiyel ölçek azaltma faktörünü (PSRF) aşağıdaki gibi tanımlar: Let Xi,1,…,Xi,NXi,1,…,Xi,NX_{i,1}, \dots , X_{i,N} olduğu iii örneklenmiş inci Markov zinciri, ve genel olarak söz konusu olsun MMM örneklenmiş bağımsız zincirleri. Let X¯i⋅X¯i⋅\bar{X}_{i\cdot} ortalama olarak …

2
Gibbs örneklemesinde koşulların tamamı nereden geliyor?
Metropolis-Hastings ve Gibbs örneklemesi gibi MCMC algoritmaları, eklem posterior dağılımlarından örnekleme yollarıdır. Metropolis-acele etmeyi oldukça kolay anladığımı ve uygulayabildiğimi düşünüyorum - sadece bir şekilde başlangıç ​​noktalarını seçiyorsunuz ve posterior yoğunluk ve teklif yoğunluğu tarafından yönlendirilen 'parametre boşluğunu' rastgele yürüyorsunuz. Gibbs örneklemesi, bir kerede yalnızca bir parametreyi güncellerken, diğerlerini sabit tutarken, …
15 bayesian  mcmc  gibbs 

1
Gibbs Çıktısından Marjinal Olasılık
Bölüm 4.2.1'deki sonuçları sıfırdan çoğaltıyorum. Gibbs Çıktısından Marjinal Olasılık Siddhartha Chib Amerikan İstatistik Derneği Dergisi, Vol. 432. (Aralık 1995), sayfa 1313-1321. Bilinen sayıdaki bileşenli normal modelin bir karışımıdır . k≥1k≥1k\geq 1f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) Bu model için Gibbs örnekleyicisi, Tanner ve Wong'un veri büyütme tekniği …

1
Gereksiz ortalama parametre ayarı neden Gibbs MCMC'yi hızlandırıyor?
Gelman & Hill (2007) kitabında (Regresyon ve Çok Düzeyli / Hiyerarşik Modeller Kullanılarak Veri Analizi), yazarlar gereksiz ortalama parametreler eklemenin MCMC'yi hızlandırmaya yardımcı olabileceğini iddia etmektedir. Verilen örnek, içiçe yerleştirilmemiş bir "uçuş simülatörü" modelidir (Denk 13.9): yiγjδk∼N(μ+γj[i]+δk[i],σ2y)∼N(0,σ2γ)∼N(0,σ2δ)yi∼N(μ+γj[i]+δk[i],σy2)γj∼N(0,σγ2)δk∼N(0,σδ2) \begin{align} y_i &\sim N(\mu + \gamma_{j[i]} + \delta_{k[i]}, \sigma^2_y) \\ \gamma_j &\sim N(0, …

1
Gibbs örneklemesi nasıl elde edilir?
Aslında bunu sormakta tereddüt ediyorum, çünkü korkarım diğer sorulara veya Gibbs örnekleminde Wikipedia'ya yönlendirileceğim, ancak eldeki şeyi tarif ettikleri hissine sahip değilim. Koşullu olasılık verildiğinde : p ( x | y ) y = y 0 y = y 1 x = x 0 1p ( x | y)p(x|y)p(x|y)p ( …
12 sampling  mcmc  gibbs 

2
Gibbs örneklemesi bir MCMC yöntemi midir?
Anladığım kadarıyla, (en azından Wikipedia bunu böyle tanımlar ). Ama bu ifadeyi Efron * tarafından buldum (vurgu eklendi): Markov zinciri Monte Carlo (MCMC), günümüzün Bayes istatistiklerinin büyük başarı öyküsüdür. MCMC ve kardeş yöntemi “Gibbs örneklemesi” , analitik ifade için çok karmaşık durumlarda posterior dağılımların sayısal olarak hesaplanmasına izin verir. ve …
11 mcmc  gibbs 


1
Eş değişkenli çok değişkenli normal kullanarak Bayesci modelleme
Bir açıklayıcı değişken olduğunu varsayalım s koordinat verilen temsil eder. Ayrıca Y = ( Y ( s 1 ) , … , Y ( s n ) ) bir yanıt değişkeniniz de vardır . Şimdi her iki değişkeni şu şekilde birleştirebiliriz:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.