Bazı sayısal teknikler kullanmak yerine EM'ye ihtiyaç duyulmaz, çünkü EM de sayısal bir yöntemdir. Bu yüzden Newton-Raphson'un yerine geçmiyor. EM, veri matrisinizde eksik değerler olduğunda özel durum içindir. Örnek düşünün koşullu bir yoğunluğa sahiptir f X | Θ ( x | θ ) . O zaman bunun log olasılığı:
l ( θ ; X ) = l o g f X | ΘX= ( X1, . . . , Xn)fX| Θ( x | θ )
Artık tam bir veri yoksa varsayalım öyle ki set X gözlenen veri oluşur Y ve eksik (veya latent) değişkenler Z , öyle ki X = ( Y , Z ) . Daha sonra, gözlemlenen veriler için log olasılığı,
l o b s ( θ , Y ) = l o g ∫ f X | Θ ( Y , z | θ ) ν z (
l ( θ ; X) = L O gfX| Θ( X| θ)
XYZX= ( Y, Z)
Genel olarak bu integrali doğrudan hesaplayamazsınız ve
l o b s ( θ , Y ) için kapalı formlu bir çözüm alamazsınız. Bu amaçla EM yöntemini kullanırsınız.
Ben kereyinelenen iki adım vardır. Bu
( i + 1 ) t h adımında, bunlar
Q ( θ | θ ( i ) ) = E θ ( i ) [ l ( complo b s( θ , Y) = L O g∫fX| Θ( Y, z| θ) νz( dz)
lo b s( θ , Y)ben( i + 1 )t h
burada
θ ( i ) bir tahmindir
İçeride ISTV melerin RWMAIWi'nin içinde
ı t h adımında. Ardından,
Q ( θ | θ ( i ) ) ' yi
θ vemaksimuma getirdiğiniz büyütme adımını hesaplayınve
θ ( i + 1 ) = m a x Q ( θ | θ i ) olarak ayarlayınQ ( θ | θ( i )) = Eθ( i )[ l ( θ ; X| Y]
θ( i )Θbent hQ ( θ | θ( i ))θθ( i + 1 )= M bir x Q ( İçeride ISTV melerin RWMAIWi'nin | İçeride ISTV melerin RWMAIWi'ninben). Daha sonra, yöntem sizin tahmininiz olacak bir değere yakınlaşana kadar bu adımları tekrarlayın.
Metot hakkında daha fazla bilgiye ihtiyacınız olursa, özellikleri, provaları veya uygulamaları sadece ilgili Wiki makalesine bakınız.