Bilgi Teorisi temiz birleşimsel ifadeler kanıtlamak için kullanılır?


54

Bilgi teorisinin temiz bir birleşimsel ifadeyi basit bir şekilde kanıtlamak için kullanıldığı favori örnekleriniz nelerdir?

Düşünebildiğim bazı örnekler, yerel olarak kodlanabilen kodlar için daha düşük sınırlarla ilgilidir, örneğin, bu yazıda: bir dizi ikili uzunluğundaki her için farklı olduğunu çiftleri { }Öyleyse, m en azından n , burada üs, doğrusal olarak oranına bağlıdır . n, i k i j 1 , J 2 , e i = x j 1x j 2 . k i / mx1,...,xmnikij1,j2

ei=xj1xj2.
ki/m

Başka bir (ilgili) örnek, Boole küpü üzerindeki izoperimetrik eşitsizliklerdir (cevaplarınızda bu konuda ayrıntılı bilgi vermekten çekinmeyin).

Daha güzel örneklerin var mı? Tercihen, kısa ve açıklaması kolaydır.


Birisi "bir başka (ilgili) örnek, Boole küpü üzerindeki izomerimetrik eşitsizliklerdir" ifadesini verebilir mi?
vzn

Yanıtlar:


40

Moser'in yapıcı Lovasz Yerel Lemma kanıtı . Temel olarak, yerel lemin koşullarında, SAT için en basit ikinci algoritmanın işleri düşünebileceğini gösterir. (En basit olanı bir tanesi işe yarayana kadar rastgele bir ödev denemek olabilir. İkinci basit olan rastgele bir ödevi seçip tatminsiz bir madde bulmak, tatmin etmek, daha sonra hangi cümleleri kırdığınızı, tekrarlamanızı ve yapılana kadar tekrar etmenizi sağlamaktır.) Bunun polinom zamanında çalıştığının kanıtı belki de bilgi teorisinin en zarif kullanımıdır (ya da Kolmogorov karmaşıklığını, bu durumda ne demek istersen).


1
Moser'in güzel Kolmogorov karmaşıklığı kanıtı burada açıklanmıştır: blog.computationalcomplexity.org/2009/06/… , ancak şunu itiraf etmeliyim ki daha fazla entropi / karşılıklı bilgi / hesaplama türü arıyordum ...
Dana Moshkovitz

Bu sorunun yanıtları olarak verilen Kolmogorov karmaşıklığının bazı ilginç uygulamaları var: cstheory.stackexchange.com/questions/286
arnab

Terry Tao da Moser'in
Anthony Leverrier

5
Aslında, ikinci makalesinde (Tardos ile) artık özyineleme talebinde bulunman gerekmiyor. Tatminsiz bir maddeyi arayın, değişkenleri için rastgele bir ödev seçin ve yineleyin . Bu kadar. Bazı nedenlerden dolayı, basit algoritma (aynı analize sahip) takılmadı.
Yuval Filmus,

@DanaMoshkovitz: Yorumunuza cevap olarak daha erken söylemek için bunun neden benim başıma geldiğini bilmiyorum: Kolmogorov karmaşıklığı ve entropi, birçok yönden esasen eşdeğerdir. Bakınız örneğin Hammer-Romaschenko-Shen-Vershchagin: dx.doi.org/10.1006/jcss.1999.1677 . Örneğin, [HRSV] 'e dayanarak, Shearer's Lemma'nın arnab'in cevabındaki kanıtı, entropi yerine Kolmogorov karmaşıklığı kullanılarak temelde aynı kanıtla kanıtlanabilir. Aradaki fark sadece bakış açısıdır: K, açıklama uzunluğu ile ilgilidir, H, ... Bazen biri diğerinden daha kolay / daha doğaldır. pilogpi
Joshua Grochow

33

Bu türden en sevdiğim örnek, Shearer's Lemma'nın entropi temelli kanıtı. (Bu kanıtı ve Jaikumar Radhakrishnan'ın Entropy ve Saymasından çok hoş olanları öğrendim .)

İddia: Eğer olduğunu varsayalım noktaları olan üzerinde farklı çıkıntıları -plane, üzerinde farklı çıkıntıları -plane ve üzerinde farklı çıkıntıları -plane. Sonra .R ' 3 , n x Y Z N Y x Z , n z X Y , n 2n- X , n , Y , n znR3nxyznyxznzxyn2nxnynz

İspat: noktalarından rasgele seçilen bir nokta olsun . Let , , üzerine projeksiyonlarını ifade , ve sırasıyla düzlem. n p x p y p z y z x z x yp=(x,y,z)npxpypzyzxzxy

Bir yandan, , , ve , entropinin temel özelliklerine göre.H [ p x ] log n x H [ p y ] log n y H [ p z ] log n zH[p]=lognH[px]lognxH[py]lognyH[pz]lognz

Öte yandan, ve ayrıca Son üç denklemi eklemek bize şunu verir: , burada şartlandırmanın entropiyi azalttığı gerçeğini kullandık (genel olarak, ) rastgele değişkenleri .H [ p x ] = H [ y ] + H [ z | y ] H [ p y ] = H [ x ] + 'H [ Z | x ] H [

H[p]=H[x]+H[y|x]+H[z|x,y]
H[px]=H[y]+H[z|y]
H[py]=H[x]+H[z|x]
'H [ s x ] + ' H [ s y ] + 'H [ s z ] = 2 H [ x ] + ' H [ y ] + 'H [ y | x ] + H [ z | x ] + H [ z
H[pz]=H[x]+H[y|x]
H[px]+H[py]+H[pz]= 2H[x]+H[y]+ H[y|x]+ H[z|x] 2 H [ x ] + 2 H [ y | x ] + 2 H [ z | x , y ] = 2 H [ p ] H [ a ] H [ a | b ] a , b+H[z|y] 2H[x]+2H[y|x]+2H[z|x,y]= 2H[p]H[a]H[a|b]a,b

Böylece, veya .n 2n x n y n z2lognlognx+logny+lognzn2nxnynz


6
İncelenmesi gereken ilgili bir makale Ehud Friedgut'un 'Hipergrafları, Entropi ve Eşitsizlikler'. Entropi perspektifinin, özellikle de genelleştirilmiş bir Shearer's Lemma'sının, birçok standart eşitsizliği ve ayrıca standart dışı, karmaşık görünümlü olanları kolayca nasıl kurtarabildiğini gösterir. Bence aydınlatıcı bir bakış açısı veriyor. Bağlantı: ma.huji.ac.il/~ehudf/docs/KKLBKKKL.pdf
Andy Drucker

26

Radhakrishnan en entropi dayanıklı mükemmel Eşleme sayısıdır Bregman Teoreminin, bir bipartit grafikte en olduğu . Kanıt iki çok zekice fikir kullanıyor. İşte kanıtın bir taslak:( L R , E ) v L ( d ( v ) ! ) 1 / d ( v )p(LR,E)vL(d(v)!)1/d(v)

  • Eşit bir şekilde mükemmel bir eşlemesi seçin . Bu değişkenin entropisi .H ( M ) = log pMH(M)=logp
  • İçin , izin içinde tepe olmak ile eşleştirilir içinde .X v R v MvLXvRvM
  • değişkeni aynı bilgiye sahiptir , bu yüzden .X=(Xv:vL)MH(M)=H(X)
  • Akıllı Fikir 1: rasgele (ve eşit) bir sipariş seçerek üzerinde , Radhakrishnan, bir "randomize zincir kuralı" belirten içerir .LH(X)=vLH(Xv|Xu:u<v,)
  • Koşullardaki bilgilerden ( )(kabaca: eşleşme için seçenek sayısı ).Xu:u<v,Nv=|N(v)Xu:u<v|v
  • bu belirlendiğinden, koşullu entropi .NvH(Xv|Xu:u<v,)=H(Xv|Xu:u<v,,Nv)
  • Zekice bir fikir 2: bilgisini "unutarak", sadece entropiyi artırabiliriz: .Xu:u<v,H(Xv|Xu:u<v,,Nv)H(Xv|Nv)
  • Crazy Fact: değişkeni , kümesinde eşit olarak dağılmıştır .Nv1,,d(v)
  • Şimdi entropisini hesaplamak için , :H(Xv|Nv)NvH(Xv|Nv)=i=1d(v)1d(v)H(Xv|Nv=i)1d(v)i=1d(v)logi=log((d(v)!)1/d(v)).
  • Sonuç, tüm eşitsizliklerin bir araya getirilmesi ve üstlerin alınması ile sonuçlanır.

Bu eşitsizliğin genellemesi Kahn-Lovász Teoremi'dir: Herhangi bir grafiğindeki mükemmel eşleşme sayısı en fazla . Bu sonucun entropi kanıtı Cutler ve Radcliffe tarafından kanıtlandı .GvV(G)(d(v)!)1/2d(v)


1
Harika bir örnek! Küçük bir nokta: tahmin , muhtemelen sadece ile üst sınırlandırılmış olduğunu söyleyebilirsiniz . H(XvNv)H(XvNv=i)logi
Srikanth

Kesinlikle haklısın ve bir eşitsizlik kullanmak için cevabı değiştirdim.
Derrick Stolee

20

Kombinatoryal Teoride Pippenger A Bilgi-Teorik Bir Yöntem tarafından iki makalede çok güzel örnekler bulunmaktadır. J. Comb. Teori, Ser. A 23 (1): 99-104 (1977) ve Entropi ve boolean fonksiyonlarının sayımı. IEEE Bilgi Teorisi İşlemleri 45 (6): 2096-2100 (1999). Aslında, Pippenger'ın birkaç makalesinde entropi / karşılıklı bilgilendirme yoluyla sevimli birleşimsel gerçekler ispatları var. Ayrıca, iki kitap: Jukna, Bilgisayar Bilimi ve Aigner Uygulamaları ile Ekstrem Kombinatorik, Kombinatoryal Arama'nın bazı güzel örnekleri var. Madiman ve ark. Katkı Kombinatoriklerinde Bilgi Teorik Eşitsizlikler ve Entropy toplam kümesi tahminleri Terence Tao (bunları Google Akademik ile bulabilirsiniz). Umarım yardımcı olur.


Harika bir okuma listesine benziyor!
Dana Moshkovitz

17

Bir başka güzel örnek, Terry Tao'nun Szemerédi grafik düzenlilik lemasının alternatif kanıtıdır . Düzenlilik lemmasının güçlü bir versiyonunu kanıtlamak için bilgi teorik bir bakış açısı kullanır, bu da hipergrafiler için düzenlilik lemmasını kanıtlamasında son derece yararlı olduğu ortaya çıkar . Tao'nun kanıtı, şu ana kadar, hipergrafı düzenli lemması için en özlü kanıtıdır.

Bu bilgi-teorik bakış açısını çok yüksek düzeyde açıklamaya çalışayım.

Bir ikili grafik olduğunu varsayalım iki tepe setleri ile, ve ve kenar kümesi E bir alt . Kenar yoğunluğu olduğu. Bu demek olduğu tüm halinde -Normal ve tarafından indüklenen alt grafiği kenar yoğunluğu ve olan.GV1V2V1×V2Gρ=|E|/|V1||V2|GϵU1V1U2V2U1U2ρ±ϵ|U1||U2|/|V1||V2|

Şimdi, köşe seçmeyi düşünün gelen ve bir tepe gelen rastgele bağımsız ve eşit. Eğer küçük ve büyük, biz yorumlayabilir ait -regularity o şartlandırma şeklindeki olmak ve olmak o kadar olasılığını etkilemez bir oluşturur kenar . Başka bir deyişle, biz sonra bile bu bilgileri verilen içindedir vex1V1x2V2ϵU1,U2ϵGx1U1x2U2(x1,x2)Gx1U1x2 içinde olan , biz olup olmadığı hakkında çok bilgi edinilen değil bir kenar ya da değildir.U2(x1,x2)

Szemeredi'nin düzgünlüğü lemması (gayri) için garanti bir grafik, bir bir bölüm bulabilirsiniz ve bir bölümü sabit yoğunluktaki alt-grup halinde bu tür alt-en gibi çiftleri için , teşvik edilmiş ilgili alt grafiğinin olan -Normal. Yukarıdaki yorumu yaparak, herhangi bir iki yüksek entropi değişkeni ve verildiğinde ve herhangi bir olayına bakıldığında, düşük entropi değişkenleri ve - "düşük- entropi "çünkü alt gruplar veV1V2U1V1,U2V2U1×U2ϵx1x2E(x1,x2)U1(x1)U2(x2)U1U2 sürekli yoğunluğa sahiptir - öyle ki , yaklaşık olarak ve veya değişkenler arasındaki karşılıklı bilginin çok küçük olması. Tao aslında bu düzeni kullanarak normalliğin lemmasının çok daha güçlü bir versiyonunu oluşturuyor. Örneğin, ve bağımsız değişkenler olmasını gerektirmez (bildiğim kadarıyla bu genellemenin bir uygulaması olmamasına rağmen). Ex1|U1x2|U2x1x2


15

Temel olarak bu soruya adanmış bütün bir kurs var:

https://catalyst.uw.edu/workspace/anuprao/15415/86751

Kurs hala devam ediyor. Bu yüzden tüm notlar bu yazıdan itibaren kullanılamaz. Ayrıca, dersten bazı örnekler zaten belirtilmiştir.


3
nice pointer: harika bir sınıfa benziyor.
Suresh Venkat

1
Söyleyebileceğim kadarıyla, bu teklif yarım ders, sorumu cevaplayan bazı örnekler içeren notlar ve iletişimden daha düşük sınırlar, çıkarıcılar, paralel tekrarlar, vb. bilgi teorisi (burada nota yok, sadece orijinal makalelere bağlantılar).
Dana Moshkovitz

7

Diyelim ki içinde noktamız var ve boyut küçültme yapmak istiyoruz. İkili mesafelerin en fazla değişmesini istiyorsak , boyutumuzu den azaltabiliriz . Bu Johnson-Lindenstrauss Lemma . On yıl boyunca, bir boyut için en iyi bilinen alt sınır , Alon tarafından idi, bu nedenle, boyutunda bir boşluk vardı. . Son zamanlarda, Jayram ve Woodruff kapandın2d1±ϵdO(logn/ϵ2)Ω(logn/(ϵ2log(1/ϵ)))log(1/ϵ)Alon'un alt sınırını iyileştirerek bu boşluk. Kanıtları zar zor geometrik yapıya dayanıyor. Yaptıkları şey, eğer daha iyi bir sınır mümkün olsaydı, belirli bir iletişim karmaşıklığı alt sınırını ihlal edeceğini ispatlıyorlar. Ve bu sınır bilgi teorik araçlar kullanılarak kanıtlanmıştır.


4
Metrik yerleştirmelerdeki bir başka örnek: Regev , yakın zamanda entropi argümanlarını kullanarak, içine için en iyi sınırların çok kısa bir kanıtını göstermiştir . 1d
arnab

Bu tamamen geometrik sonuçların TCS halkı tarafından kanıtlanması çok doğal ve hoş görünüyor!
ilyaraz

6

Veri yapıları dünyasında aşağıdaki temel problemi göz önünde bulundurun. beden bir evreniniz var . Bir öğeyi statik bir veri yapısı olarak bir öğesinde saklamak istiyorsunuz , böylece kullanıcı bilmek isterse olup olmadığını , veri yapısında yalnızca bit problarının gerekli olduğunu bilmek istersiniz. , burada sabit bir sabittir. Amaç, veri yapısının alan karmaşıklığını en aza indirmektir (depolanan bit sayısı açısından).mu[m]x[m]x=utt

Kişi böyle bir veri yapısını . Fikir basit. Böl tarif etmek için ihtiyaç duyulan bit içine blok. Her ve her olası uzunluk uzunluğu , bloğunun o bitstring'e eşit olup olmadığını veri yapısında saklayın .O(m1/t)logmuti[t](logm)/tiu

Şimdi, alt sınır için. , den rastgele seçilen bir eleman olsun . Açıkçası, . Eğer olan bu sırayla (muhtemelen uyarlamalı) veri yapısında problanan bit, daha sonra: , burada veri yapısının büyüklüğüdür. Bu verir: .X[m]H[X]=logmX1,,XttH[X]=H[X1]+H[X2|X1]++H[Xt|X1,,Xt1]tlogsssm1/t

İki eleman ve saklamak istiyorsak sıkı sınırlar bilinmemektedir . Bu yönde en iyi sonuçlar için buraya bakın .t>1


5

Buna güzel bir örnek Kahn ve Kim tarafından " Sıralama ve Entropi ". Entropi yöntem, bilinen bir poşet verilen bir algoritma bulmak için kullanılan ve bir unknon doğrusal uzantısı , doğrusal uzantısı bulmak sorgular doğrusal uzantıları kümesidir .P O ( log | X | ) X PPPO(log|X|)XP


3

Jiang, Li, Vitanyi, Kolmogorov Karmaşıklığını Kullanan Algoritmaların Ortalama Durum Analizi .

“Algoritmaların ortalama durum karmaşıklığını analiz etmek, bilgisayar bilimlerinde çok pratik ama çok zor bir sorundur. Geçtiğimiz birkaç yılda, Kolmogorov karmaşıklığının, algoritmaların ortalama durum karmaşıklığını analiz etmek için önemli bir araç olduğunu gösterdik. Sıkıştırılamazlık yöntemini geliştirdik [7]. Bu yazıda, böyle bir yöntemin gücünü ve sadeliğini göstermek için birkaç basit örnek kullanıyoruz. Sıralı veya paralel Queueusort veya Stacksort'u sıralamak için gereken ortalama durum yığınlarının (sıraların) sınırlarını kanıtlarız. '

Ayrıca bakınız, örneğin Kolmogorov Karmaşıklığı ve Heilbronn Tipinin Üçgen Problemi .


3

Scott Aaronson tarafından örnekleme ve arama denkliği . Burada, Genişletilmiş Kilise Turing Tezi'nin geçerliliği ile ilgili karmaşıklık teorisindeki örnekleme ve arama probleminin denkliğini göstermektedir. Standart bilgi teorisi, algoritmik bilgi teorisi ve Kolmogorov karmaşıklığı temel olarak kullanılır.


Kolmogorov karmaşıklığını sadece teknik bir kolaylık ya da sayım argümanı için bir kısa yol olarak kullanmadığımızı vurgulayalım . Aksine, Kolmogorov karmaşıklığı bir arama problemini tanımlamak için bile gerekli görünüyor.


0

Bu basit ve aynı zamanda bir yaklaşım: 10 9'dan 10 6'nın kaç kombinasyonu, çoğaltmalara izin veriyor? Doğru formül

N = (10 6 + 10 9 )! / (10 6 ! 10 9 !) ~ = 2 11409189.141937481

Ancak, bir milyar kova boyunca dolaşmak için talimatlar vermeyi hayal edin ve bir yol boyunca milyonlarca misket bıraktığınızı düşünün. “ 10 9 “ sonraki kovaya adım ”talimatı ve 10 6 “ mermer atma ”talimatı olacaktır. Toplam bilgi

log 2 (K) '= -10 6 günlük 2 (10 6 / (10 6 + 10 9 10 -)) 9 günlük 2 (10 9 / (10 6 + 10 9 ))' = 11409200,432742426

Bu komik, ama (log) saymak için oldukça iyi bir yoldur. Sevdim çünkü birleştirici yapmayı unutursam işe yarar. Bunu söylemek eşdeğerdir

(a + b)! / a! b! ~ = (a + b) (a + b) / a a b b

Stirling'in yaklaşımını kullanmak, iptal etmek ve bir şeyi kaçırmak gibi.


2
Belirli sayılar yerine genel sınırlamayı yaparsanız bu daha okunabilir olabilir. Hamming topunun hacminin entropi temelli yaklaşımından bahsettiğinizi düşünüyorum.
Sasho Nikolov

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.