Diferansiyel entropi nasıl yorumlanır?


15

Kısa bir süre önce , ayrı bir olasılık dağılımının entropisi hakkındaki bu makaleyi okudum . Entropiyi, kullandığınız kelimelerin olasılık dağılımı göz önüne alındığında, kodlamanız en uygun olduğunda bir mesajı kodlamak için gereken beklenen sayı bitleri (en azından entropi tanımınızda kullanıldığında) olarak düşünmenin güzel bir yolunu tanımlar.log2

Bununla birlikte, buradaki gibi sürekli duruma uzanırken, bu düşünme biçiminin bozulduğuna inanıyorum, çünkü herhangi bir sürekli olasılık dağılımı p ( x ) için (lütfen yanlışsa beni düzeltin), Kesintisiz vakada olduğu gibi, sürekli entropinin ne anlama geldiğini düşünmenin güzel bir yolu olup olmadığını merak etmek.xp(x)=p(x)


Entropi ve diferansiyel entropi hakkındaki Wikipedia makalelerini okumaya çalıştınız mı?
ttnphns

Sürekli bir dağıtımın olasılık kütle fonksiyonu yoktur. Sürekli durumdaki analog, bir olasılık yoğunluğunun ve tüm x aralığı üzerindeki integral 1'e eşittir
Michael R. Chernick

@MichaelChernick Bir tane olduğunu söylemedim, ancak ayrık dava hakkında düşünme şekli, toplamın 1'e eşit olmasına dayanıyor.
dippynark

@ttnphns hayır ben sığınak, ama şimdi onları kontrol edeceğim, teşekkürler.
17'de dippynark

Shannon entropisinin yorumlanması için bkz. Stats.stackexchange.com/questions/66186/… . Bazı fikirler aktarılabilir.
kjetil b halvorsen

Yanıtlar:


15

Entropininki kadar anlamlı veya yararlı olacak diferansiyel entropinin yorumu yoktur. Sürekli rasgele değişkenlerle ilgili problem, değerlerinin tipik olarak 0 olasılığa sahip olması ve bu nedenle kodlamak için sonsuz sayıda bit gerektirmesidir.

[nε,(n+1)ε[

p(x)log2p(x)dxlog2ε

ve diferansiyel entropi değil. Bu miktar bir anlamda daha anlamlıdır, ancak daha küçük ve daha küçük aralıklar alırken sonsuzluğa yönelir. Mantıksal değerimizin değerinin hangi aralıklarla düştüğünü kodlamak için daha fazla bite ihtiyacımız olacağı için mantıklı.

Sürekli dağılımlara bakmak için daha yararlı bir miktar bağıl entropidir (ayrıca Kullback-Leibler sapması). Kesikli dağılımlar için:

DKL[P||Q]=xP(x)log2P(x)Q(x).

PlogQ2(x)x

DKL[p∣∣q]=p(x)log2p(x)q(x)dx,

log2ε

p(x)λ(x)=1

p(x)log2p(x)dx=DKL[p∣∣λ].

Yorumu, kullanarak gereken bit sayısı arasındaki fark olacaktır.log2nε(n+1)εp(x)dxnlogελ

Göreli entropiye harika bir giriş için Sergio Verdu'nun konuşmasına bakın .

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.