Bu durumda, aşağıdaki varsayım / kısıtlama altında olasılığın (ve sonuç olarak MLE'nin ) ABC yaklaşımını düşünebilirsiniz :
Varsayım. Orijinal örnek boyutun bilinmektedir.
Yakınsama açısından, sık tahmin edicilerin kalitesinin örnek büyüklüğüne bağlı olduğu düşünüldüğünde, orijinal örnek boyutunu bilmeden keyfi olarak iyi tahmin ediciler elde edilemez.
Fikri arka dağılımından bir örneğini oluşturmak için θ ve MLE bir yaklaşım oluşturmak amacıyla , aşağıdaki gibi yeni teknik örnekleme önem kullanabilir [1] ya da eşit bir önceden dikkate θ uygun üzerinde destekli [2] 'de olduğu gibi ayarlanır .
[2] 'deki yöntemi tarif edeceğim. Öncelikle ABC örnekleyicisini tanımlayayım.
ABC Örnekleyici
Let f(⋅|θ) örnek oluşturur model θ∈Θ (tahmin edilmesi), bir parametredir T (numunenin bir fonksiyonu) bir istatistik ve T0 ABC jargon içinde gözlenen istatistik olarak buna özet istatistik denir , ρ bir metrik, π(θ)θ ve ϵ>0 bir tolerans üzerinde bir önceki dağılım . Daha sonra, ABC ret örnekleyici aşağıdaki gibi uygulanabilir.
- Π ( ⋅ ) ' den θ∗ örneği .π(⋅)
- F ( ⋅ | θ ∗ ) modelinden n boyutunda bir x örneği oluşturun .nf(⋅|θ∗)
- T∗=T(x) değerini hesaplayın .
- Eğer ρ(T∗,T0)<ϵ , kabul θ∗ posteriorundan bir simülasyon olarak θ .
Bu algoritma, posterior dağılımından yaklaşık örnek oluşturur θ verilen T(x)=T0 . Bu nedenle, en iyi senaryo T istatistiğinin yeterli olduğu, ancak diğer istatistiklerin kullanılabildiği durumdur. Bu daha ayrıntılı açıklaması için bkz bu kağıdı .
Şimdi, genel bir çerçevede, biri desteğinde MLE'yi içeren bir üniforma kullanırsa, Maksimum posteriori (MAP) Maksimum Olabilirlik Tahmincisi (MLE) ile çakışır. Bu nedenle, ABC Örnekleyicisi'nde daha önce uygun bir üniforma düşünürseniz, MAP'si MLE ile çakışan bir posterior dağılımın yaklaşık bir örneğini oluşturabilirsiniz. Kalan adım bu modu tahmin etmekten oluşur. Bu problem özgeçmişte, örneğin "Çok değişkenli modun hesaplamalı olarak etkili tahmini" bölümünde tartışılmıştır. .
Oyuncak örneği
Let (x1,...,xn) bir alınan bir numune olabilir N(μ,1) ve bu örnek mevcut olan tek bilgi olduğunu varsayalım x¯=1n∑nj=1xj. ρ,Rcinsinden Öklid metriğiolsunveϵ=0.001. Aşağıdaki R kodu, yukarıda açıklanan yöntemleri kullanarakn=100veμ=0olan simüle edilmişbir örnek,1000büyüklüğünde posterior dağılımın bir örneği,μiçinönceden eşitolan(−0.3,0.3)nasıl yaklaşık MLE elde edileceğini gösterir.)ve posterior numunenin modunun tahmini için bir çekirdek yoğunluk tahmincisi (MAP = MLE).
# rm(list=ls())
# Simulated data
set.seed(1)
x = rnorm(100)
# Observed statistic
T0 = mean(x)
# ABC Sampler using a uniform prior
N=1000
eps = 0.001
ABCsamp = rep(0,N)
i=1
while(i < N+1){
u = runif(1,-0.3,0.3)
t.samp = rnorm(100,u,1)
Ts = mean(t.samp)
if(abs(Ts-T0)<eps){
ABCsamp[i]=u
i=i+1
print(i)
}
}
# Approximation of the MLE
kd = density(ABCsamp)
kd$x[which(kd$y==max(kd$y))]
Gördüğünüz gibi, küçük bir tolerans kullanarak MLE'ye çok iyi yaklaşıyoruz (bu önemsiz örnekte yeterli olduğu göz önüne alındığında istatistikten hesaplanabilir). Özet istatistiğin seçiminin çok önemli olduğunu fark etmek önemlidir. Nicelikler özet istatistik için genellikle iyi bir seçimdir, ancak tüm seçenekler iyi bir yaklaşım üretmez. Özet istatistiğin çok bilgilendirici olmaması ve yaklaşık olarak ABC kalitesinde iyi bilinen yaklaşımın kalitesi düşük olabilir.
Güncelleme: Benzer bir yaklaşım Fan ve ark. (2012) . Makaleyle ilgili tartışma için bu girişe bakın .