Entropi bize ne anlatıyor?


32

Entropi hakkında okuyorum ve sürekli durumda ne anlama geldiğini kavramsallaştırmakta zorlanıyorum. Viki sayfası aşağıdakileri belirtir:

Olayların olasılık dağılımı, her olayın bilgi miktarı ile birleştiğinde, beklenen değeri, bu dağılım tarafından üretilen ortalama bilgi miktarı ya da entropi olan rastgele bir değişken oluşturur.

Öyleyse, sürekli bir olasılık dağılımına ilişkin entropiyi hesaplarsam, bu bana gerçekten ne söylüyor? Bozuk paraları çevirme hakkında bir örnek veriyorlar, bu yüzden ayrık durumda, ancak sürekli durumda böyle bir örnekle açıklamanın sezgisel bir yolu varsa, bu harika olurdu!

Yardımcı olursa, sürekli rastgele değişkeni için entropi tanımı Xşöyledir:

'H(X)=-P(x)günlükbP(x)dx
buradaolasılık dağılım işlevidir.P(x)

Bunu daha somutlaştırmak ve denemek için, örneğini göz önünde bulundurun , sonra Wikipedia’ya göre entropiX~Gama(α,β)

H(X)=E[ln(P(X))]=E[αln(β)+ln(Γ(α))+ln(Γ(α))(α1)ln(X)+βX]=αln(β)+ln(Γ(α))+(1α)(ddαln(Γ(α)))

Ve böylece şimdi biz sürekli bir dağılım (Gamma dağılımı) için entropi hesapladık ve şimdi bunun ifadeyi değerlendirmek eğer öyleyse verilen ve ya o miktar aslında bana anlatıyor? α β'H(X)αβ


5
(+1) Bu teklif gerçekten talihsiz bir geçişi ifade ediyor. Entropinin matematiksel tanımını tanımlamak ve yorumlamak için zahmetli ve opak bir şekilde çaba sarfediyor. Bu tanım . Logun ( f ( X ) ) beklenen değeri olarak görülebilir, burada f , rastgele bir X değişkeninin pdf'sidir . Günlüğü karakterize etmeye çalışıyor ( f ( x ) )f(x)log(f(x))dxlog(f(X))fXlog(f(x)) sayısıyla ilişkili "bilgi miktarı" olarak . x
whuber

5
Sormaya değer, çünkü hassas ama önemli bir teknik sorun var: Entropinin sürekli sürümü, ayrık sürümle (bilgi açısından doğal, sezgisel bir düşünceye sahip olmayan) aynı özelliklerden pek hoşlanmıyor. @Tim AFAIK, Matematiğin üzerindeki bu konu sadece ayrık durumu ele alıyor.
whuber

1
@RustyStatistician, x'in sonucunun ne kadar şaşırtıcı olduğunu söyleyerek i düşünür . Daha sonra beklenen sürprizi hesaplıyorsunuz. log(f(x))
Adrian,

3
Teknik referanslar @wberber referanslarında, bu ilgi çekici olabilir.
Sean Easter,

3
Eğer technicalities ilgilenen gibidir: Entropi bir kapalı dayalı bir sözde metrik, kendi ölçü olaylar arasındaki mesafeleri tanımlamak görmek için kullanılır Kullback-Leibler sapma denilen projecteuclid.org/euclid.aoms/1177729694 (orijinal için ve groudbreaking) Kullback ve Leibler'den bir makale. Konsept ayrıca AIC ve BIC gibi model seçim kriterlerinde de yeniden ortaya çıkmaktadır.
Jeremias K

Yanıtlar:


31

Entropi size sistemde ne kadar belirsizlik olduğunu söyler. Diyelim ki bir kedi aradığınızı ve ev ile komşular arasında 1 mil uzaklıktaki bir yer olduğunu biliyorsunuz. Çocuklarınız size, bir kedinin evinizden mesafesinde olma olasılığının en iyi şekilde f ( x ; 2 , 2 ) beta dağılımıyla tanımlandığını söylemektedir . Bir kedi 0 ile 1 arasında herhangi bir yerde olabilir, ama daha büyük olasılıkla ortada, yani olmak Yani x m bir x = 1 / 2 .x f(x;2,2)xmbirx=1/2

görüntü tanımını buraya girin

Hadi beta dağılımını denkleminize takalım, sonra elde edersiniz .'H=-0.125

Daha sonra, karınıza sorarsınız ve size kediniz hakkındaki bilgisini tanımlamak için en iyi dağılımın tek tip dağılım olduğunu söyler. Entropi denklemine bağlarsan olsun .'H=0

Hem üniforma hem de beta dağılımları kedinin evinizden 0 ile 1 mil arasında bir yerde olmasına izin verir, ancak üniformada daha fazla belirsizlik vardır, çünkü karınızın kedinin nerede saklandığına dair hiçbir fikri yoktur, çocuklar bazı fikirlere sahipken , bunun daha fazla olduğunu düşünüyorlar. Ortada bir yerde olması muhtemel. Bu yüzden Beta'nın entropisi Üniformanınkinden daha düşük.

görüntü tanımını buraya girin

Başka dağılımları deneyebilirsiniz, belki komşunuz size kedinin evlerden birinin yakınında olmayı sevdiğini söyler, bu yüzden beta dağılımı . Onun H Eğer bir kedi aramaya nerede hakkında bazı fikir edinmek için, tekrar üniforma daha düşük olmalıdır. Komşunuzun bilgi entropisinin çocuklarınızdan daha yüksek veya düşük olduğunu tahmin edin. Bu konularda her gün çocuklara bahse girerim.α=β=1/2'H

görüntü tanımını buraya girin

GÜNCELLEŞTİRME:

Bu nasıl çalışıyor? Bunu düşünmenin bir yolu tek biçimli bir dağılımla başlamaktır. En belirsizliğin bu olduğu konusunda hemfikirseniz, rahatsız etmeyi düşünün. Sadelik için ayrık duruma bakalım. Bir noktadan alın ve aşağıdaki gibi başka bir yere ekleyin: p i = p - Δ p p j = p + Δ pΔp

pben'=p-Δp
pj'=p+Δp

Şimdi, entropinin nasıl değiştiğini görelim: = p ln p - p ln [ p ( 1 - Δ p / p ) ] +

'H-'H'=pbenlnpben-pbenln(pben-Δp)+pjlnpj-pjln(pj+Δp)
= - ln ( 1 - Δ p / p ) - ln ( 1 + Δ p / p ) > 0 Bu, düzgün dağılımdan kaynaklanan herhangi bir rahatsızlığın azaldığı anlamına gelir entropi (belirsizlik). Bunu sürekli olarak göstermek için, bu satır boyunca çeşitlilik hesaplamaları ya da başka bir şey kullanmak zorunda kalacağım, ancak prensip olarak aynı sonucu elde edersiniz.
=plnppln[p(1Δp/p)]+plnppln[p(1+Δp/p)]
=ln(1Δp/p)ln(1+Δp/p)>0

nnnn=1n=13

görüntü tanımını buraya girin

x = 0:0.01:1;
for k=1:5
    i = 1 + (k-1)*3;
    idx(k) = i;
    f = @(x)bates_pdf(x,i);
    funb=@(x)f(x).*log(f(x));
    fun = @(x)arrayfun(funb,x);
    h(k) = -integral(fun,0,1);
    subplot(1,5+1,k)

    plot(x,arrayfun(f,x))
    title(['Bates(x,' num2str(i) ')'])
    ylim([0 6])
end

subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'

1
(+1) Başkalarının yorumunu görmek için sabırsızlanıyorum ama bunu gerçekten sevdim. Öyleyse, entropiyi, diğer dağıtımlarla karşılaştırmanız için gereken kesinliğin bir ölçüsü olarak kullanabiliyor gibi görünüyorsunuz? Yani, numara kendi başına size pek söylemez mi?
RustyStatistician

1
@RustyStatistician, mutlak değerinin tamamen anlamsız olduğunu söyleyemem. Ama evet, sistemin durumlarını karşılaştırmak için en çok kullanışlıdır. Entropiyi içselleştirmenin kolay yolu, onu belirsizliğin
Aksakal

Bu sorunun cevabı, "belirsizlik" teriminin tanımsız bırakılmasıdır.
kjetil b halvorsen,

1
terimi belirsiz bırakıldı
Aksakal

Bu çok güzel.
Astrid

1

Bu soruya basit bir cevap eklemek istiyorum:

Bu miktar aslında bana ne söylüyor?

Kesin bir senaryoda bunu göstermek sezgiseldir. Her çevirme kafasında bir kafa görme olasılığının 0,99 olduğunu söyleyerek ağır bir şekilde bozuk para attığınızı varsayalım. Her gerçek yazı size çok az bilgi verir, çünkü bunun zaten baş olacağını zaten biliyorsunuz. Ancak daha adil bir paraya gelince, ne bekleyeceğinize dair herhangi bir düşünceye sahip olmanız zor olmuyor, o zaman her yazı size önyargılı paralardan daha fazla bilgi veriyor. Tek bir atış gözlemleyerek elde edilen bilgi miktarı ile eşittirgünlük1p(x).

Entropinin miktarının bize söylediği, her gerçek çevirme (ağırlıklı) ortalamanın aktarabileceği bilgilerdir:Egünlük1p(x)=Σp(x)günlük1p(x). Madeni para ne kadar adil olursa, entropi de o kadar büyük olur ve tamamen adil bir madeni para azami bilgilendirici olacaktır.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.