İdeal Monte Carlo algoritması birbirini takip eden bağımsız rasgele değerleri kullanır . MCMC'de, ardışık değerler bağımsız değildir; bu, yöntemi ideal Monte Carlo'dan daha yavaş birleştirir; Bununla birlikte, ne kadar hızlı karışırsa, ardışık yinelemelerde bağımlılık o kadar hızlı azalır¹ ve daha hızlı birleşir.
¹ I izleyen değerlerinin değer verilen oldukça hızlı bir şekilde "hemen hemen bağımsız bir" başlangıç durumuna ait veya olduğunu burada ortalama Xn değerler bir noktada Xń +k ve "neredeyse bağımsız" hızlı hale Xn olarak k büyür; öyleyse, qhhhly'nin dediği gibi, “zincir devlet alanının belli bir bölgesinde sıkışıp kalmaz”.
Düzenleme: Aşağıdaki örnekte yardımcı olabileceğini düşünüyorum
Tekdüze dağılımın ortalamasını MCMC'ye göre tahmin etmek istediğinizi düşünün . Sıralı diziyle başlayın ; Her adımda, sekanstaki elementleri seçtiniz ve rastgele karıştırınız. Her adımda, 1 konumundaki eleman kaydedilir; bu tekdüze dağılımına yaklaşır. Değeri kontrol karıştırma hız: zaman , yavaş olduğu; zaman , birbirini takip eden elemanlar bağımsızdır ve karıştırma hızlıdır.( 1 , … , n ) k > 2 k k = 2 k = n{ 1 , … , n }( 1 , … , n )k > 2kk = 2k = n
İşte bu MCMC algoritması için bir R fonksiyonu:
mcmc <- function(n, k = 2, N = 5000)
{
x <- 1:n;
res <- numeric(N)
for(i in 1:N)
{
swap <- sample(1:n, k)
x[swap] <- sample(x[swap],k);
res[i] <- x[1];
}
return(res);
}
için uygulayalım ve MCMC yinelemeleri boyunca ortalama ardışık tahminini çizelim:μ = 50n = 99μ = 50
n <- 99; mu <- sum(1:n)/n;
mcmc(n) -> r1
plot(cumsum(r1)/1:length(r1), type="l", ylim=c(0,n), ylab="mean")
abline(mu,0,lty=2)
mcmc(n,round(n/2)) -> r2
lines(1:length(r2), cumsum(r2)/1:length(r2), col="blue")
mcmc(n,n) -> r3
lines(1:length(r3), cumsum(r3)/1:length(r3), col="red")
legend("topleft", c("k = 2", paste("k =",round(n/2)), paste("k =",n)), col=c("black","blue","red"), lwd=1)
Burada (siyah) yakınsamanın yavaş olduğunu görebilirsiniz; için (mavi), daha hızlı, ama yine de daha yavaş olduğundan daha (kırmızı).k = 50 k = 99k = 2k = 50k = 99
Sabit bir yinelemeden sonra, örneğin 100 yinelemeden sonra, tahmini ortalamanın dağılımı için bir histogram da çizebilirsiniz:
K <- 5000;
M1 <- numeric(K)
M2 <- numeric(K)
M3 <- numeric(K)
for(i in 1:K)
{
M1[i] <- mean(mcmc(n,2,100));
M2[i] <- mean(mcmc(n,round(n/2),100));
M3[i] <- mean(mcmc(n,n,100));
}
dev.new()
par(mfrow=c(3,1))
hist(M1, xlim=c(0,n), freq=FALSE)
hist(M2, xlim=c(0,n), freq=FALSE)
hist(M3, xlim=c(0,n), freq=FALSE)
Sen ile görebiliriz (M1), 100 tekrar başlangıç değerine etkisi sadece size korkunç bir sonuç verir. İle o ok ile hala daha büyük standart sapma ile görünüyor . İşte araçlar ve sd:k = 50 k = 99k = 2k = 50k = 99
> mean(M1)
[1] 19.046
> mean(M2)
[1] 49.51611
> mean(M3)
[1] 50.09301
> sd(M2)
[1] 5.013053
> sd(M3)
[1] 2.829185