Bence bu nasıl kullanılacağına bağlı.
Sadece diğer okuyucular için referans için, eğer ve olasılık ölçümleri ise, Jensen-Shannon Diverjans
burada orta nokta ölçüsüdür ve Kullback- Leibler ıraksama.PS
J( P, Q ) = 12( D(P∣ ∣ R ) + D ( Q ∣ ∣ R ) )
R = 12(P+ S )D ( ⋅ ∣ ∣ ⋅ )
Şimdi, bir metrik olduğu için Jensen-Shannon Diverjansının kare kökünü kullanmaya cazip geleceğim , yani bir mesafe ölçüsünün tüm "sezgisel" özelliklerini karşılar.
Bununla ilgili daha fazla ayrıntı için bkz.
Endres ve Schindelin, Olasılık dağılımları için yeni bir metrik , IEEE Trans. Bilgi. Senin. , cilt. 49, hayır. 3, Temmuz 2003, sayfa 1858-1860.
Tabii ki, bir anlamda, neye ihtiyacınız olduğuna bağlı. Bunun için kullandığınız tek şey bir çift ölçüyü değerlendirmekse, JSD'nin herhangi bir monotonik dönüşümü işe yarayacaktır. Eğer "kare mesafeye" en yakın bir şey arıyorsanız, JSD'nin kendisi benzer miktardır.
Bu arada, bu önceki soru ve ilgili cevaplar ve tartışmalarla da ilgilenebilirsiniz .