Eğitimin her bir yinelemesini farklı bir sekansla birleştirmek veya yürütmek doğru şey değildir. Doğru yaklaşım biraz açıklama gerektirir:
EM algoritması kullanılarak genellikle bir HMM eğitilir. Bu birkaç tekrardan oluşur. Her yinelemenin bir "tahmini" ve bir "maksimize" adımı vardır. "En üst düzeye çıkar" adımında, her bir gözlem vektörü x'i modelinizdeki bir durumla hizalarsınız, böylece bir olasılık ölçüsü en üst düzeye çıkarılır. "Tahmin" adımında, her bir durum için, (a) s'ye hizalanmış x vektörleri için istatistiksel bir modelin parametrelerini ve (b) durum geçiş olasılıklarını tahmin edersiniz. Aşağıdaki yinelemede, en üst düzeye çıkarma adımı, güncellenmiş istatistiksel modellerle vb. Tekrar çalışır. İşlem, belirli sayıda tekrarlanabilir veya olasılık ölçüsü önemli ölçüde artmayı bıraktığında (yani, model kararlı bir çözüme dönüşür). Son olarak, (en azından konuşma tanımada) bir HMM tipik olarak "başlangıç" olarak tanımlanacaktır
Bu nedenle, birden fazla egzersiz diziniz varsa, tahmin adımında her bir diziyi, ilk gözlem vektörünün başlangıç durumuyla hizalanması için çalıştırmalısınız. Bu şekilde, bu başlangıç durumuna ilişkin istatistikler, tüm gözlem dizileriniz üzerindeki ilk gözlemlerden toplanır ve genel olarak gözlem vektörleri, her dizi boyunca en olası durumlara hizalanır. En üst düzeye çıkarma adımını (ve gelecekteki yinelemeleri) yalnızca eğitim için tüm sekanslar sağlandıktan sonra yaparsınız . Bir sonraki yinelemede, aynı şeyi yapardınız.
Her bir gözlem dizisinin başlangıcını başlangıç durumuna hizalayarak, bir dizinin sonu ile bir sonrakinin başlangıcı arasındaki geçişleri yanlış bir şekilde modelleyeceğiniz dizileri birleştirme sorununu önlersiniz. Ve her bir yinelemedeki tüm dizileri kullanarak, yanıtlayıcının belirttiği gibi, her bir yinelemenin yakınsamayı garanti etmeyeceği farklı diziler sağlamaktan kaçınırsınız.