«it.information-theory» etiketlenmiş sorular

Bilgi Teorisinde Sorular

13
Bilgi Teorisi temiz birleşimsel ifadeler kanıtlamak için kullanılır?
Bilgi teorisinin temiz bir birleşimsel ifadeyi basit bir şekilde kanıtlamak için kullanıldığı favori örnekleriniz nelerdir? Düşünebildiğim bazı örnekler, yerel olarak kodlanabilen kodlar için daha düşük sınırlarla ilgilidir, örneğin, bu yazıda: bir dizi ikili uzunluğundaki her için farklı olduğunu çiftleri { }Öyleyse, m en azından n , burada üs, doğrusal olarak …

10
Hesaplamalı karmaşıklıkta Kolmogorov karmaşıklığı uygulamaları
Gayri olarak, bir zincir Kolmogorov karmaşıklığı çıktıları bir kısa programı uzunluktadır . Kullanarak 'rastgele dize' kavramını tanımlayabiliriz ( ) eğer rastgeledir . Dizelerin çoğunun rastgele olduğunu görmek kolaydır (çok fazla kısa program yoktur).xxxxxxxxxK(x)≥0.99|x|K(x)≥0.99|x|K(x) \geq 0.99 |x| Kolmogorov karmaşıklığı teorisi ve algoritmik bilgi teorisi günümüzde oldukça gelişmiştir. Kolmogorov karmaşıklığını, ifadelerinde Kolmogorov …

3
Bilgi Hacmi Nedir?
Bu soru, PCAST'ın bilgisayar bilimi konusundaki sunumundan sonra Jeannette Wing'e soruldu . “Fizik perspektifinden, sahip olabileceğimiz maksimum bilgi hacmi var mı?” (Teorik bilgisayar bilimleri topluluğu için “bilgi nedir?” Sorusunu düşündüğü için güzel bir soru. "Bilgi Nedir?" Ötesinde bir de bu bağlamda "hacim" ne anlama geldiğini bulmak gerekir? Belki de maksimum …

5
Kolmogorov karmaşıklığının verimli bir şekilde hesaplanabilir varyantları
Kolmogorov ön ek karmaşıklığı (yani , çıktısını alan minimum kendiliğinden sınırlayan programın boyutudur ) birkaç hoş özelliğe sahiptir:K(x)K(x)K(x)xxx Bu, yamalı olan ya da olmayan dizelere göre daha düşük bir karmaşıklığa sahip olan dizeleri verme sezgisine karşılık gelir. Bazı oracle için koşullu karmaşıklığı , hatta daha iyi tanımlamamızı sağlar .K(x|y)K(x|y)K(x|y)K(x|O)K(x|O)K(x|O)OOO Alt …

1
Doğrusal büyüklükteki devrelerle çözülebilir iyi kodlar?
Aşağıdaki tür hata düzeltme kodları arıyorum: Sabit oranlı ikili kodlar, bazı sabit hata fraksiyonlarından, büyüklüğünde bir Boole devresi olarak uygulanabilen bir kod çözücü tarafından çözülebilmektedir , burada , kodlama uzunluğudur.NO ( N)O(N)O(N)N-NN Bazı arka plan: Spielman, Doğrusal Zamanlı Kodlanabilir ve Kodlanabilir Hata Düzeltme Kodlarında , logaritmik maliyetli RAM modelinde zamanda …

2
Büyük olasılık harfleri olmadığında Huffman kodu ne kadar iyi?
Bir olasılık dağılımı için Huffman kod en az ağırlıklı ortalama kod sözcüğü uzunluğuna sahip önek kodu , uzunluğu inci codword. Huffman kodunun sembol başına ortalama uzunluğunun ve arasında olduğu bilinen bir teoremdir , burada Shannon entropisidir. olasılık dağılımının.ppp∑piℓi∑piℓi\sum p_i \ell_iℓiℓi\ell_iiiiH(p)H(p)H(p)H(p)+1H(p)+1H(p)+1H(p)=−∑ipilog2piH(p)=−∑ipilog2⁡piH(p) = -\sum_i \, p_i \log_2 p_i Ortalama uzunluğun Shannon entropisini …

3
Elmas normu ile ilişkili devletlerin mesafesi arasında herhangi bir bağlantı var mı?
Kuantum bilgi teorisinde, iki kuantum kanalı arasındaki mesafe genellikle elmas normu kullanılarak ölçülür. İki kuantum durum arasındaki mesafeyi ölçmenin birkaç yolu vardır, örneğin iz mesafesi, sadakat, vb. Jamiołkowski izomorfizması kuantum kanalları ve kuantum durumları arasında bir dualite sağlar. Bu en azından benim için ilginç, çünkü elmas normunun hesaplanması çok zor …

1
Sorgu algoritmalarının bilgi karmaşıklığı?
Bilgi karmaşıklığı iletişim karmaşıklığında çok yararlı bir araç olmuştur, esas olarak dağıtılmış sorunların iletişim karmaşıklığını azaltmak için kullanılır. Sorgu karmaşıklığı için bir bilgi karmaşıklığı analogu var mı? Sorgu karmaşıklığı ile iletişim karmaşıklığı arasında birçok paralellik vardır; çoğu zaman (ama her zaman değil!) bir modeldeki bir alt sınır diğer modeldeki bir …

1
Bloom filtre karmaları: daha mı büyük mü?
Bir Bloom filtresini uygularken, geleneksel yaklaşım birden fazla bağımsız hash fonksiyonu gerektirir. Kirsch ve Mitzenmacher aslında sadece iki taneye ihtiyacınız olduğunu ve gerisini bunların doğrusal kombinasyonları olarak üretebileceğini gösterdi. Benim sorum şu: iki karma fonksiyon ile iki kez entropi olan bir fonksiyon arasındaki fark nedir? Bu, karma işlevlerinizin çıktısıyla gerçekte …

5
Renyi entropilerinin faydası?
Çoğumuz rasgele bir değişkenin Shannon entropisine, ve tüm ilgili bağıl entropi, karşılıklı bilgi, vb. gibi bilgi-teorik önlemler. Rasgele bir değişkenin min-entropisi gibi teorik bilgisayar bilimi ve bilgi teorisinde yaygın olarak kullanılan birkaç başka entropi ölçüsü vardır.'H( X) = - E [ günlükp ( X) ]H(X)=−E[log⁡p(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] …

4
Fonksiyonlar için eta-denklik Haskell'in seq işlemi ile karşılaştırılabilir mi?
Lemma: Eta denkliği varsayalım (\x -> ⊥) = ⊥ :: A -> B. İspat: ⊥ = (\x -> ⊥ x)eta-denklik ve (\x -> ⊥ x) = (\x -> ⊥)lambda altında azalma ile. Haskell 2010 raporu, bölüm 6.2 seqfonksiyonu iki denklemle belirtir : seq :: a -> b -> b seq …

5
Kayıpsız sıkıştırma verilerinin sınırı nedir? (böyle bir sınır varsa)
Son zamanlarda sıkıştırma ile ilgili algoritmalar ile uğraşıyordum ve kayıpsız veri sıkıştırma ile elde edilebilecek en iyi sıkıştırma oranının hangisi olduğunu merak ediyordum . Şimdiye kadar, bu konuda bulabildiğim tek kaynak Wikipedia idi: Video, sayısallaştırılmış film ve ses gibi sayısallaştırılmış verilerin kayıpsız sıkıştırılması, tüm bilgileri korur, ancak verilerin gerçek entropisi …

5
Huffman kodlaması neden Lempel-Ziv'in yapmadığı entropiyi ortadan kaldırıyor?
Popüler DEFLATE algoritması, Lempel-Ziv'in üstünde Huffman kodlamasını kullanır. Genel olarak, rastgele bir veri kaynağımız varsa (= 1 bit entropi / bit), Huffman dahil hiçbir kodlamanın ortalama olarak sıkıştırması olası değildir. Lempel-Ziv "mükemmel" olsaydı (uzunluk sonsuza kadar giderken çoğu kaynak sınıfı için yaklaşır), Huffman ile post kodlama yardımcı olmaz. Tabii ki, …

1
Entropi ve hesaplama karmaşıklığı
Silme bitinin enerji tüketmesi gerektiğini gösteren araştırmacılar var, şimdi hesaplama karmaşıklığı ile algoritmanın ortalama enerji tüketimi hakkında yapılmış herhangi bir araştırma var mı? Sanırım, hesaplama karmaşıklığı ortalama enerji tüketimi ile ilişkilidir, umarım burada biraz cevap alabilirim.F ( n )F(n)F(n)F(n)F(n)F(n)F(n)

3
Bir meblağın entropisinde
İki bağımsız ayrık rasgele değişken X ve Y toplamının entropi üzerinde bir bağ arıyorum . Doğal olarak, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Ancak, n bağımsız Bernoulli rasgele değişken Z 1 , … , Z n toplamına …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.