Bir Maksimum Entropi Markov Modeli (MEMM) kavramı ile ilgileniyorum ve bunu Konuşma Parçası (POS) etiketleyici için kullanmayı düşünüyorum. Şu anda, her bir kelimeyi etiketlemek için geleneksel bir Maksimum Entropi (ME) sınıflandırıcısı kullanıyorum. Bu, önceki iki etiket de dahil olmak üzere bir dizi özellik kullanır.
MEMM'ler, Viterbi algoritmasını Markov Zinciri boyunca optimum yolu bulmak için kullanır (yani, her kelime için ayrı ayrı optimumlar yerine cümle için eksiksiz bir optimum etiket kümesi bulmak için). Bunu okurken, bu harika bir zarafet ve sadeliğe sahip gibi görünüyor. Ancak, her aşama sadece bir önceki aşamanın "sonuçlarına" dayanır (yani bir Markov Zinciri'ne göre).
Ancak, ME modelim önceki iki aşamayı kullanır (yani önceki iki sözcüğün etiketleri). İki olası yaklaşımım var gibi görünüyor:
Geleneksel bir Viterbi uygulamasında olduğu gibi, bir (önceki) aşamaya göre saklanan bir yol kümesi kullanın. ME sınıflandırıcım, transfer fonksiyonunu üretmek için bu ve bundan önce (söz konusu yola dondurulmuş) bu ve 'dondurulmuş' aşamayı kullanırdı.
Ya da iki aşamayı takip etmek için algoritmayı yazıyorum. Bu daha karmaşıktır ve artık gerçek bir Markov Modeli olmayacaktır çünkü her transfer fonksiyonu (yani ME Modelinden) bir aşamaya değil önceki iki aşamaya bağlı olacaktır.
Daha karmaşık olmasına rağmen, ikincisinin daha doğru olacağına dikkat çekiyor.
Literatür araştırmamda bununla ilgili henüz bir örnek bulamadım. Denendi mi? İki aşamalı yaklaşım genel doğrulukta bir gelişme sağladı mı?