Entropi size sistemde ne kadar belirsizlik olduğunu söyler. Diyelim ki bir kedi aradığınızı ve ev ile komşular arasında 1 mil uzaklıktaki bir yer olduğunu biliyorsunuz. Çocuklarınız size, bir kedinin evinizden mesafesinde olma olasılığının en iyi şekilde f ( x ; 2 , 2 ) beta dağılımıyla tanımlandığını söylemektedir . Bir kedi 0 ile 1 arasında herhangi bir yerde olabilir, ama daha büyük olasılıkla ortada, yani olmak Yani x m bir x = 1 / 2 .x f( x ; 2 , 2 )xm bir x= 1 / 2
Hadi beta dağılımını denkleminize takalım, sonra elde edersiniz .'H= - 0,125
Daha sonra, karınıza sorarsınız ve size kediniz hakkındaki bilgisini tanımlamak için en iyi dağılımın tek tip dağılım olduğunu söyler. Entropi denklemine bağlarsan olsun .'H= 0
Hem üniforma hem de beta dağılımları kedinin evinizden 0 ile 1 mil arasında bir yerde olmasına izin verir, ancak üniformada daha fazla belirsizlik vardır, çünkü karınızın kedinin nerede saklandığına dair hiçbir fikri yoktur, çocuklar bazı fikirlere sahipken , bunun daha fazla olduğunu düşünüyorlar. Ortada bir yerde olması muhtemel. Bu yüzden Beta'nın entropisi Üniformanınkinden daha düşük.
Başka dağılımları deneyebilirsiniz, belki komşunuz size kedinin evlerden birinin yakınında olmayı sevdiğini söyler, bu yüzden beta dağılımı . Onun H Eğer bir kedi aramaya nerede hakkında bazı fikir edinmek için, tekrar üniforma daha düşük olmalıdır. Komşunuzun bilgi entropisinin çocuklarınızdan daha yüksek veya düşük olduğunu tahmin edin. Bu konularda her gün çocuklara bahse girerim.α = β= 1 / 2'H
GÜNCELLEŞTİRME:
Bu nasıl çalışıyor? Bunu düşünmenin bir yolu tek biçimli bir dağılımla başlamaktır. En belirsizliğin bu olduğu konusunda hemfikirseniz, rahatsız etmeyi düşünün. Sadelik için ayrık duruma bakalım. Bir noktadan alın ve aşağıdaki gibi başka bir yere ekleyin:
p ′ i = p - Δ p p ′ j = p + Δ pΔ p
p'ben= p - Δ p
p'j= p + Δ p
Şimdi, entropinin nasıl değiştiğini görelim:
= p ln p - p ln [ p ( 1 - Δ p / p ) ] +
'H- H'= pbenlnpben- pbenln( pben- Δ p ) + pjlnpj- pjln( pj+ Δ p )
= - ln ( 1 - Δ p / p ) - ln ( 1 + Δ p / p ) > 0
Bu, düzgün dağılımdan kaynaklanan herhangi bir rahatsızlığın azaldığı anlamına gelir entropi (belirsizlik). Bunu sürekli olarak göstermek için, bu satır boyunca çeşitlilik hesaplamaları ya da başka bir şey kullanmak zorunda kalacağım, ancak prensip olarak aynı sonucu elde edersiniz.
= p lnp - p ln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'