HMM'lerin, Partikül Filtrelerinin ve Kalman filtrelerinin dinamik Bayes ağlarının özel durumları olduğunu okudum. Ancak, sadece HMM'leri biliyorum ve dinamik Bayes ağları arasındaki farkı görmüyorum.
Birisi açıklayabilir mi lütfen?
Cevabınız aşağıdakine benzer olabilir, ancak bayes Ağları için iyi olurdu:
Gizli Markov Modelleri
Bir Gizli Markov Modeli (HMM) 5 parçalı bir :
- : Bir dizi durum (ör. "Fonem başlangıcı", " ortası", " sonu")
- : Bir dizi olası gözlem (ses sinyalleri)
- : ihtimalleri veren bir stokastik matris durumundan elde etmek durumu için .
- : gözlem için olasılıkları veren stokastik bir matris .
- : Durumlardan birinde başlamak için ilk dağıtım.
Genellikle yönlendirilmiş bir grafik olarak gösterilir, burada her düğüm bir duruma karşılık gelir ve geçiş olasılıkları kenarlarda gösterilir.
Gizli Markov Modelleri "gizli" olarak adlandırılır, çünkü mevcut durum gizlidir. Algoritmalar gözlemlerden ve modelin kendisinden tahmin etmek zorundadır. Bunlara "Markov" denir, çünkü bir sonraki durum için sadece mevcut durum önemlidir.
HMM'ler için sabit bir topoloji (durum sayısı, olası kenarlar) verirsiniz. Sonra 3 olası görev var
- Değerlendirme : HMM verildiğinde (İleri algoritma) gözlemleri olasılığı nedir?
- Kod çözme : bir HMM ve gözlemleri durumlarının en olası sırası (Viterbi algoritması)
- Öğrenme : : Baum-Welch algoritmasını öğrenin , bu özel bir Beklenti maksimizasyonu vakasıdır.
Bayes ağları
Bayes ağları, çevrimsel olmayan grafikler (DAG'ler) . Düğümler rastgele değişkenlerini temsil eder . Her için , ebeveynleri şartına bir olasılık dağılımı vardır :
İki görev var gibi görünüyor (lütfen açıklığa kavuşturun):
- Çıkarım : Bazı değişkenler göz önüne alındığında, diğer değişkenlerin en olası değerlerini alın. Tam çıkarım NP-zordur. Yaklaşık olarak, MCMC kullanabilirsiniz.
Öğrenme : Bu dağılımları nasıl öğreneceğiniz kesin soruna ( kaynak ) bağlıdır :
- bilinen yapı, tamamen gözlenebilir: maksimum olabilirlik tahmini (MLE)
- bilinen yapı, kısmen gözlemlenebilir: Beklenti Maksimizasyonu (EM) veya Markov Zinciri Monte Carlo (MCMC)
- bilinmeyen yapı, tamamen gözlemlenebilir: model uzayında arama
- bilinmeyen yapı, kısmen gözlemlenebilir: model uzayında EM + arama
Dynamic Bayes ağları
Sanırım dinamik Bayes ağları (DBN'ler) olasılıklı grafik modellere de yönelik. Değişkenlik, zaman içinde değişen ağdan kaynaklanıyor gibi görünmektedir. Ancak bana öyle geliyor ki, bu sadece aynı ağı kopyalamak ve zamanındaki her düğümü, zamanındaki her bir ilgili düğüme bağlamakla eşdeğerdir . Durum bu mu?