Bayes güncellenmesi temel fikri o bazı veriler verilir X ve önceki faiz aşırı parametresini θ veri ve parametre arasındaki ilişki kullanılarak tarif edilir, olabilirlik fonksiyonu, sen teoremi posterior elde etmek Bayes kullanmak
p(θ∣X)∝p(X∣θ)p(θ)
Bu ilk veri noktasını gördükten sonra nerede, sırayla yapılabilir öncesinde θ güncellendi hale arka İçeride ISTV melerin RWMAIWi'nin ' ikinci bir veri noktası alabilir yanındaki ve kullanılmasını arka önce elde da olduğu gibi önce bir kez daha vb güncellemek için,x1 θ θ′θ ′x2θ′
Sana bir örnek vereyim. Eğer ortalama tahmin etmek istediğinizi düşünün normal dağılımın ve size bilinir. Bu durumda normal-normal modeli kullanabiliriz. hiperparametreli için normal olduğunu varsayıyoruzσ 2 μ μ 0 , σ 2 0 :μσ2μμ0,σ20:
X∣μμ∼Normal(μ, σ2)∼Normal(μ0, σ20)
Normal dağılım bir olduğu konjügat önce için normal dağılımın, önceden güncellemek için kapalı form çözümü vardırμ
E(μ′∣x)Var(μ′∣x)=σ2μ+σ20xσ2+σ20=σ2σ20σ2+σ20
Ne yazık ki, bu tür basit kapalı form çözümleri daha karmaşık sorunlar için mevcut değildir ve optimizasyon algoritmalarına ( maksimum posteriori yaklaşım kullanan nokta tahminleri için ) veya MCMC simülasyonuna güvenmeniz gerekir .
Aşağıda veri örneğini görebilirsiniz:
n <- 1000
set.seed(123)
x <- rnorm(n, 1.4, 2.7)
mu <- numeric(n)
sigma <- numeric(n)
mu[1] <- (10000*x[i] + (2.7^2)*0)/(10000+2.7^2)
sigma[1] <- (10000*2.7^2)/(10000+2.7^2)
for (i in 2:n) {
mu[i] <- ( sigma[i-1]*x[i] + (2.7^2)*mu[i-1] )/(sigma[i-1]+2.7^2)
sigma[i] <- ( sigma[i-1]*2.7^2 )/(sigma[i-1]+2.7^2)
}
Sonuçları çizerseniz, yeni veriler biriktikçe posteriorun tahmini değere nasıl yaklaştığını (gerçek değer kırmızı çizgi ile işaretlenir) görürsünüz .
Daha fazla bilgi edinmek için Kevin P. Murphy'nin bu slaytları ve Gaussian dağıtım belgesinin Eşlenik Bayes analizini kontrol edebilirsiniz . Kontrol edin Bayesian öncelikleri büyük örneklem büyüklüğü ile ilgisiz mi? Ayrıca Bayesian çıkarımına erişilebilir adım adım giriş için bu notları ve bu blog girişini kontrol edebilirsiniz .