Eklem entropisi hakkında sezgi


9

Eklem entropisi hakkında bazı sezgiler oluşturmakta zorlanıyorum. = eklem dağılımındaki belirsizlik ; = belirsizlik ; = belirsizlik .'H(X,Y)p(x,y)'H(X)px(x)'H(Y)py(y)

H (X) yüksekse, dağılım daha belirsizdir ve böyle bir dağılımın sonucunu biliyorsanız daha fazla bilgiye sahipsiniz! Böylece H (X) aynı zamanda bilgiyi nicelleştirir.

Şimdi gösterebiliriz'H(X,Y)'H(X)+'H(Y)

Bildiğiniz Ama eğer alabilirsiniz ve bir anlamda bu kadar hem daha fazla bilgi bulunmaktadır ve 'olmamalı bu yüzden, t (x, y) ile ilgili belirsizlik, bireysel belirsizliklerin toplamından daha mı fazla?p(x,y)px(x)py(y)p(x,y)px(x)py(y)

Yanıtlar:


7

genel bir kural olarak, ek bilgi hiçbir zaman entropiyi arttırmaz, bu da resmi olarak şu şekilde ifade edilir:

'H(X|Y)'H(X)*

eşitlik ve bağımsız ise anlamına gelir .XY'H(X|Y)='H(X)

Bu sonuç, eklem entropisinin . Bunu göstermek için basit bir vakasını düşünün . Zincir kuralına göre, birleştirme entropisini aşağıdaki gibi yazabiliriz'H(X1,X2,...,Xn)Σben=1n'H(Xben)'H(X,Y)

'H(X,Y)='H(X|Y)+'H(Y)

Eşitsizlik göz önüne alındığında , değişken entropisini ve dolayısıyla asla arttırmaz . Tümevarım kullanılarak bu sonuç ikiden fazla değişken içeren vakalarda genelleştirilebilir.*'H(X|Y)X'H(X,Y)'H(X)+'H(Y)

Umarım eklem entropisi hakkındaki belirsizliği (veya entropinizi) azaltmaya yardımcı olmuştur!


4

Shannon entropisinin başka bir bakış açısı daha var. Bir değişkenin somut değerinin ne olduğunu sorularla tahmin etmek istediğinizi düşünün. Basit olması için, değerin yalnızca sekiz farklı değer alabileceğini ve hepsinin eşit derecede olası olduğunu düşünün .(0,1,...,8)

En etkili yol ikili arama yapmaktır. İlk önce 4'ten büyük mü yoksa küçük mü diye sorun. Sonra 2 veya 6 ile karşılaştırın, vb. Toplamda üçten fazla soruya ihtiyacınız olmayacak (bu somut dağılımın bit sayısı).

İki değişken için benzerliği devam ettirebiliriz. Bağımsız değillerse, bunlardan birinin değerini bilmek, bir sonraki soru için (ortalama olarak) daha iyi tahminler yapmanıza yardımcı olur (bu omidi tarafından belirtilen sonuçlara yansıtılır ). Bu nedenle, tamamen bağımsız olmadıkça, değerlerini bağımsız olarak tahmin etmeniz gereken entropi daha düşüktür. Entropinin daha düşük olduğunu söylemek (bu somut örnek için) ortalama olarak daha az soru sormanız gerektiği anlamına gelir (yani, daha iyi tahminlerde bulunacağınızdan daha sık).


2

Görünüşe göre "biliniyorsa daha fazla bilgi, bilinmediğinde daha fazla entropi" diye düşünüyoruz. Bu doğru bir sezgi değildir , çünkü eğer dağıtım bilinmiyorsa, entropisini bile bilmiyoruz. Dağılım biliniyorsa, entropi , bilinmeyen kalan rasgele değişkenin gerçekleşmesi hakkındaki belirsizliği tanımlamak için gereken bilgi miktarını nicelendirir (dağılımı bilerek sadece bu belirsizliği çevreleyen yapıyı biliyoruz). Entropi yok değil dağıtımında bilgi "hediye" ölçmek. Aksine: Daha fazla bilgi belirsizliği tanımlamak ve böylece için "gerekli" dağıtım, az bilgi "dahil" daha azentropi. Tekdüze dağılımı düşünün: çok az bilgi içerir , çünkü değişkenin tüm olası değerleri eşlenebilirdir: bu nedenle sınırlı destekli tüm dağıtımlar arasında maksimum entropi vardır.

Ortak Entropi'ye gelince, bunu şu şekilde düşünebilirsiniz: ortak dağılım, iki değişkenin bağımlı olup olmadığı hakkında bilgi ve marjinal dağılımları türetmek için yeterli bilgi içerir. Marjinal dağılımlar, iki rasgele değişkenin bağımlı veya bağımsız olup olmadığı hakkında bilgi içermez. Bu nedenle, ortak dağıtım daha fazla bilgiye sahip ve bize rastgele değişkenleri çevreleyen daha az belirsizlik sağlıyor:

Dağıtımla ilgili daha fazla bilgi değişkenleri çevreleyen daha az belirsizlik bu belirsizliği tanımlamak için daha az bilgi gerekiyor daha az entropi.


Teşekkürler, bu işleri çok netleştirir. Bir dağılımdaki korelasyonların bir çift değerin belirsizliğini azaltması gerektiğini düşünüyordum(X,Y) ve dolayısıyla 'H(X,Y) daha küçük olmalı 'H(X)+'H(Y).
user21455

Evet, özü bu.
Alecos Papadopoulos
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.