Gizli Markov modelleri ve beklenti maksimizasyon algoritması


Yanıtlar:


12

EM algoritması (beklenti maksimizasyonu), modelin gözlemlenen ve gözlemlenmeyen (gizli) bir bileşen açısından olasılıklı olarak belirtildiği durumlarda, olasılık işlevinin optimizasyonu için genel bir algoritmadır. HMM'ler (gizli Markov modelleri) gözlemlenmeyen bir bileşeni, gizli durumları olduğundan ve gerçek gözlemlere genellikle HMM terminolojisindeki emisyonlar denir . Bu nedenle, HMM'ler EM algoritmasının yararlı olabileceği bir model sınıfı oluşturur.

Genelde, model basitlik için sonlu bir alanda değerler aldığını varsaydığımız iki bileşenden oluşursa ve olasılıklı model spesifikasyonu noktası olasılıklarından oluşuyorsa tarafından parametrize çalışmaları sadece zaman, o zaman, uygunluk olan p θ ( x , y ) θ X = x U x ( θ ) = y p θ ( x , y ) . θ(X,Y)pθ(x,y)θX=x

Lx(θ)=ypθ(x,y).
Toplam masum görünse de öyle değil. HMM'ler için toplam, gizli durumlar arasındaki olası tüm geçişler üzerinde olacaktır ve bu, gözlenen sekansın uzunluğu büyüdüğünde hızla müthiş bir sayı haline gelir. Neyse ki, olasılıkın hızlı bir şekilde hesaplanması için HMM'ler (ileri-geri) için algoritmalar vardır ve olasılık, ilke olarak, theta'nın maksimum olabilirlik tahmini için herhangi bir genel amaçlı optimizasyon algoritmasına takılabilir . Alternatif EM-algoritmasıdır. Bu, yinelemeli olarakθ
  • e adımlı bir bir hesaplama olup, koşullu gözlenen belirli bir beklenti mevcut tahmin altındaθxθ
  • M adımlı bir maksimize etmektir,

EM-algoritması, yukarıdaki iki adımın hesaplamalı olarak verimli bir şekilde uygulanıp uygulanamayacağı anlamlıdır (örneğin, koşullu beklenti ve maksimizasyon için kapalı form ifadeleri olduğunda).

Tarihsel olarak, genel EM-algoritması, diğer şeylerin yanı sıra, algoritmanın monoton artan olasılık değerlerine sahip bir dizi parametreye yol açtığını kanıtlayan Dempster, Laird ve Rubin'e yatırılır . Ayrıca "EM-algoritması" terimini ürettiler. İlginç bir şekilde, HMM'ler için EM-algoritması 1970 yılında Baum ve ark. ve aynı zamanda HMM literatüründe Baum-Welch algoritması olarak da adlandırılır (Welch'in ne yaptığını tam olarak bilmiyorum ...).


3
Welch şimdi Baum-Welch algoritması olarak adlandırılan şeyi icat etti (buna “kolay kısım” demektedir); Baum, algoritmanın çalıştığını matematiksel olarak kanıtlıyor ("zor kısım"). Bkz courses.cs.tamu.edu/rgutier/cpsc689_s07/welch2003baumWelch.pdf Tüm ayrıntılar için.
Mikhail Korobov

@MikhailKorobov, bu bilgilendirici referans için teşekkürler.
NRH

2

Beklenti Maksimizasyon, Gaussianların ve diğer Bayes ağ tipi modellerin bir karışımı gibi çeşitli farklı üretken istatistik modellerinde istatistiksel çıkarım yapmak için kullanılan yinelemeli bir yöntemdir. Tek bağlantı HMM'lerin aynı zamanda Bayes ağları olmasıdır. Ancak, HMM'ler üzerinde EM kullanılmayacaktır, çünkü Viterbi algoritması olarak adlandırılan HMM'lerde kesin bir algoritma vardır. Bu yüzden bir kişi HMM üzerinde çıkarsama yapmak için EM'yi kullanabilse de, bunu yapmak için bir neden yok.


4
İki farklı türden “çıkarım” karıştırdığınız için bu tamamen doğru değildir. EM, bilinmeyen parametrelerin tahmini için bir algoritmadır, Viterbi en olası gizli durum dizisini hesaplamak için kullanılan bir algoritmadır. Gerçekten de, parametre tahmini için HMM'ler için EM kullanırsınız. Cevabımda HMM'ler ve EM arasındaki ilişkiyi açıklayan tarihsel referanslarla EM algoritması hakkında daha fazla ayrıntı verdim.
NRH

0

HMM'de esas olarak üç parametreyi tahmin etmeye çalışıyoruz:

  1. Başlangıç ​​durum olasılıkları. Bu, öğelerinin bulunduğu bir vektördür , burada , durum sayısıdır.KKK

  2. Geçiş matrisi. Bu, boyutunda kare bir matristir .K×K

  3. Bazı devletlere koşullu bir öğeyi gözlemlemenin koşullu olasılıkları. Bu aynı zamanda büyüklüğünde bir matristir , burada gözlem sayısıdır.NK×NN

Şimdi, EM kısmı yukarıda belirtilen miktarları / parametreleri tahmin etmeye çalıştığınızda gelir. Bazı rastgele tahminlerle başlayarak, gözlemlerin olasılığı değerlendirilir ve parametreler maksimum olasılık elde edene kadar tekrarlanır. Bu nedenle, HMM aracılığıyla bazı işlemleri modelliyoruz ve bunun için bazı parametreleri tanıtmamız gerekiyor. Parametreleri tahmin etmek için EM oluşturulur.

Bu çok kısa bir cevap. EM'yi uygulamak, bir dizi teknikle çözmek için bir dizi başka alt sorun gerektirir. Derinlemesine anlayış için, Rabiner klasik eğitim kağıdı şiddetle tavsiye edilir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.