@Bean tarafından kısa cevap çok iyi açıklıyor. Ancak, Resnik ve Hardisty tarafından başlatılmamış olan Gibbs Sampling'in konuyu daha derinlemesine inceleyen bölüm 1.1'e işaret etmek istiyorum . Bu makaleden çok küçük değişiklikler yaparak birkaç satır yazıyorum (Bu cevaplar OP'nin bütünlük uğruna bildikleri şeyleri tekrar ediyor)
MLE
Resmi olarak MLE, gözlemlenen verileri üretme olasılığı en yüksek olan seçimi (model parametresinin) üretir.
MAP
Tahmini bir MAP, gözlemlenen veriler için büyük olasılıkla verilen seçimdir. MLE'nin aksine, MAP tahmini Bayes'in Kuralını uygular, böylece tahminimiz parametrelerimizin önceki olasılık dağılımı şeklinde olmasını beklediğimiz şey hakkında önceki bilgileri dikkate alabilir.
Tutmak
MLE ve MAP tahminlerinin her ikisi de ilgili "en iyi" tanımlarına göre bize en iyi tahmini vermektedir. Ancak, MLE veya MAP olsun, tek bir tahmin kullanmanın bilgiyi attığını unutmayın. Prensipte, parametrenin herhangi bir değeri olabilir (alan adından); parametre için tek bir tahmini değer yerine tüm dağılımı dikkate alırsak daha iyi tahminler alamayabilir miyiz? Bunu yaparsak, gözlemlenen verilerden sıkabileceğimiz parametre hakkında tüm bilgileri kullanırız, X.
Bu yakalama ile hiçbirini kullanmak istemeyebiliriz. Eğer Ayrıca, daha önce, fasulye ve Tim bahsettiği zorunda bunlardan birini kullanmak, kullanım HARİTASI sen önce var eğer. Önceliğiniz yoksa, MAP MLE'ye düşer. Konjugat öncelikleri problemi analitik olarak çözmeye yardımcı olacaktır, aksi takdirde Gibbs Sampling kullanın.