Beklenti Yardımı Kağıttan en üst düzeye çıkarma: önceden dağıtım nasıl dahil edilir?


9

Soru şu başlıklı makaleye dayanmaktadır: Çift yönlü ışınım iletimi-difüzyon modeli kullanılarak dağınık optik tomografide görüntü rekonstrüksiyonu

İndirme: {link

Yazarlar EM ile Algoritma uygulamak bilinmeyen bir vektör kıtlık regularization bir resmin pikselleri tahmin etmek. Model tarafından verilirl1μ

(1)y=Aμ+e
Tahmin Denk. (8) 'de

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

Benim durumda, kabul var uzunlukta bir filtre olarak ve olan filtre temsil vektörleri. Yani,μLμL×1

Model olarak yeniden yazılabilir

(3)y(n)=μTa(n)+v(n)

Soru: Sorun formülasyonu: (n'ye 1), gözlemlenmemiş girdi ve , varyans bilinmeyen ek gürültü ile sıfır ortalama . MLE çözümü Beklenti Maksimizasyonu (EM) temel alacaktır.μ(n){e(n)}σe2

Makalede Eq (19), fonksiyonudur - tam log olabilirliği ancak benim durumum için dağılımını tam log-olasılık olasılığına nasıl dahil edebileceğimi anlamıyorum . AA,μ

Ne bir EM kullanımı tam log-olasılığını olacak öncesinde dağıtım gibi?y


Gerçekten günlük olasılığını mı istiyorsunuz yoksa bunun yerine günlük posteriorunu mu istiyorsunuz? Sadece ikincisi daha önce Laplacian'ı içerecektir. Birincisi, daha önce yazmış gibi

Gizli değişken içeren veri kümesini pdf olacak diğer Fisher Bilgi Matrix bulmak için kullanılacaktır (1) Bir ve (2) - İki istediğim her ifadeler vardır ve Yıldönümleri ortak olan parametresinin bir fonksiyonu olarak gözlenen verilerin olasılık yoğunluğu . Yazdığım pdf kör tahmini için MA modeline uygulanabilir . Ancak, lokalite kısıtlaması = Laplacian için nasıl farklı olacak, böylece log-olasılığının kısmi türevlerinden Fisher Information Matrix bulunabilsin. Zθθ
SKM

@ Xi'an: Mantık olasılığının formülasyonunda öncekini içeren 3 pdf'nin nasıl ekleneceğini anlamıyorum. Kısmi türevi almak ve sıfıra eşitlemek olan maksimizasyonu çalıştırabilirim. Lütfen açıkça yazılmış olabilirlik ifadesiyle bir cevap verebilir misiniz? Bu gerçekten yardımcı olacak
SKM

Yanıtlar:


3

Hedefi EM'nin temsili keyfi bir , ayrışma nedeniyle veya , rastgele bir değeri için çalışır (çünkü lhs'de hiçbiri yoktur ) ve dolayısıyla :

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
verilen herhangi bir koşullu dağılımı için , örneğin . Bu nedenle, eğer en üst düzeye çıkarma bölgesindeki çözeltisi ile elimizdeki ise EM standart argümanlarına göre . Bu nedenle, ZX=xq(z|x,θ)θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
ve E adımı olarak hedef her M'de posteriorda bir artışa yol açar adım, yani değiştirilmiş EM algoritmasının yerel bir MAP'ye yakınsadığı anlamına gelir.
E[logL(θ|x,Z)|x,θ]+logπ(θ)

Cevabın için teşekkürler. Does pdf temsil ? İkinci satırda belirtilen Denklemde İle çıkmanın neden 2 beklentisi olduğunu söyler misiniz ? q()ZE[logq(.)]
SKM

Bazı açıklamalar ekledim, ancak bir ders kitabında EM algoritmasının türetilmesini kontrol etmelisiniz, çünkü bu standart bir malzeme.
Xi'an

1

Ben monotonik artan log-posterior (veya MLE için log olasılığı) MAP tahmin (veya MLE) durağan noktasına yakınsama göstermek için yeterli olduğunu düşünmüyorum. Örneğin, artışlar keyfi olarak küçük olabilir. Wu 1983'ün ünlü makalesinde , sabit EM noktasına yakınsama için yeterli bir koşul, alt sınır fonksiyonunun her iki argümanında da farklılaşabilirliktir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.