Beklenti Maksimizasyon Açıklama


11

EM algoritması ile ilgili çok faydalı bir eğitim buldum .

Örnek ve öğretici resim sadece parlak.

resim açıklamasını buraya girin

Olasılıkların hesaplanması ile ilgili soru Beklenti maksimizasyonu nasıl çalışır?

Öğreticide açıklanan teorinin örneğe nasıl bağlanacağıyla ilgili başka bir sorum var.

E aşaması sırasında, EM bir işlev seçer bu alt sınır , her yerde, ve bunlar için .gtlogP(x;Θ)gt(Θ^(t))=logP(x;Θ^(t))

Yani ve her yineleme için farklı olması gerektiği gibi.gt

Buna ek olarak, örneğin ve sonra bunları uyguladığımız verilere ve . Hangi benim için karşı sezgisel görünüyor. Önceden bazı varsayımlarımız vardı, veriye uyguladık ve yeni varsayımlar aldık, böylece veriler bir şekilde varsayımları değiştirdi. Anlamıyorum neden için eşit olmadığını .Θ^A(0)=0.6Θ^B(0)=0.5Θ^A(1)=0.71Θ^B(1)=0.58Θ^(0)Θ^(1)

Buna ek olarak, bu eğiticide Ek Not 1'i gördüğünüzde daha fazla soru ortaya çıkıyor . Örneğin bizim durumumuzda nedir . olduğunda eşitsizliğin neden sıkı olduğu açık değilQ(z)Q(z)=P(z|x;Θ)

Teşekkür ederim.

Yanıtlar:


1

Bu notları , tamamlayıcı malzemede neler olup bittiğini anlamada çok yararlı buldum .

Bu soruları süreklilik için biraz sıra dışı cevap vereceğim.


Birincisi: neden bu

θ(0)θ(1)

Bunun nedeni, , değerine eşit veya daha az olacağı garanti edilecek şekilde seçilmesidir 2, ilk tahminimizin . Önceki varsayımlarımız mükemmel ilk tahminler olsaydı, doğru olur ve değişmezdi. Ancak, oluşturulan fonksiyonunda daha yüksek değerler bulabiliriz , bu nedenle parametresini bir sonraki yinelememizin orijinalimizden daha olası olduğu garanti edilir.g0log(P(x;θ))θ(0)θ(1)g0θ


İkincisi: eşitsizlik neden

Q(z)=P(z|x;θ)

Dipnotlarda bunun hakkında bir ipucu var,

eşitlik ancak ve ancak rastgele değişken olasılık 1 ile sabit ise (yani, )y=E[y]

seçimimizin sabit hale getirdiğini ima etmek . Bunu görmek için şunu göz önünde bulundurun:QP(x,z;θ)Q(z)

P(x,z;θ)=P(z|x;θ)P(x;θ)

bu bizim fraksiyonumuzu yapar

P(z|x;θ)P(x;θ)P(z|x;θ)=P(x;θ)

Yani nedir ve sabittir? Bu terimin bağımsız (sabit) olduğu üzerinden toplamları hesapladığımızı düşünün . Bunu olarak temsil edelim ve bu denklem şöyle olur:P(x;θ)zC

log(zQ(z)C)zQ(z)log(C)

buradan hızlı bir şekilde 2 tarafın eşit olduğunu görebiliriz, çünkü bir sabitin beklentisi ağırlıklar ne olursa olsun sabit olacaktır ( )Q(z)


Son olarak:gt

Bağladığım notlarda verilen cevap, ek notlardaki cevaptan biraz farklıdır, ancak sadece bir sabitle farklılık gösterirler ve bunu maksimize ederiz, bu yüzden sonuç değildir. Notlardaki (türetme ile):

gt(θ)=log(P(x|θ(t)))+zP(z|x;θ(t))log(P(x|z;θ)P(z|θ)P(z|x;θ(t))P(x|θ(t)))

Bu karmaşık formül, ek notlarda uzun süredir konuşulmamıştır, çünkü muhtemelen bu terimlerin çoğu, maksimize ettiğimizde atılan sabitler olacaktır. Buraya ilk etapta nasıl ulaştığımızla ilgileniyorsanız, bağlantı verdiğim notları tavsiye ederim.

İkinci soruya verilen cevaba benzer bir argüman kullanarak, günlükteki terim için eşittir, böylece toplam terim kaybolur ve beklendiği gibi.gt(θ(t))gt(θ(t))=logP(x|θ(t))

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.