Bayesci posterior düşünün . Asimptotik, maksimum MLE tahmini oluşur sadece olasılığı en üst düzeye çıkarır, .
Tüm bu kavramlar - Bayesian öncelikleri, olasılığı en üst düzeye çıkarıyor - kulağa süper ilkeli ve hiç de keyfi değil. Görünürde bir giriş yok.
Yine de MLE, gerçek dağıtım ve arasındaki KL sapmasını en aza indirir , yani,
Woah — bu kütükler nereden geldi? Neden özellikle KL sapması?
Örneğin, neden farklı bir sapmanın en aza indirilmesi, Bayes posteriorlarının süper ilkeli ve motive edilmiş konseptlerine karşılık gelmiyor ve yukarıdaki olasılığı en üst düzeye çıkarıyor?
Bu bağlamda KL sapması ve / veya günlükleri hakkında özel bir şey var gibi görünüyor. Tabii ki, ellerimizi havaya fırlatabilir ve matematiğin böyle olduğunu söyleyebiliriz. Ama ortaya çıkarmak için daha derin bir sezgi veya bağlantı olabileceğinden şüpheleniyorum.