Veri sıkıştırma algoritmaları ve veri sıkıştırma için teorik sınır hakkında okuyordum. Son zamanlarda "Kombinatoryal Entropi Kodlaması" adlı bir sıkıştırma yöntemiyle karşılaştım, bu yöntemin ana fikri, dosyayı dosyada sunulan karakterler, frekansları ve dosya tarafından temsil edilen bu karakter permütasyonunun dizini olarak kodlamaktır.
Bu belgeler bu yöntemin açıklanmasına yardımcı olabilir:
https://arxiv.org/pdf/1703.08127
http://www-video.eecs.berkeley.edu/papers/vdai/dcc2003.pdf
https://www.thinkmind.org/download.php?articleid=ctrq_2014_2_10_70019
Bununla birlikte, ilk belgede, bu yöntemi kullanarak bazı metinleri Shannon sınırından daha az bir boyuta sıkıştırabileceklerini okudum (Karakterlerin sıklığını kaydetmek için gereken alanı ve metayı kaydetmek için gereken alanı düşünmediler dosya verileri). Bunu düşündüm ve bu yöntemin çok küçük dosyalar için çok verimli olmayacağını, ancak diğer yandan büyük dosyalarla iyi çalışabileceğini buldum. Aslında tam olarak ben sadece çarpımına her karakterin olasılığı toplamı biliyorum bu algoritma veya çok iyi Shannon sınırı anlamıyorum olasılık karşıtının.
Bazı sorularım var:
Bu sıkıştırma yöntemi gerçekten Shannon sınırından daha küçük olan dosyaları sıkıştırır mı?
Dosyaları Shannon sınırından daha azına sıkıştıran herhangi bir sıkıştırma algoritması var mı (bildiğim kadarıyla bu sorunun cevabı hayır)?
Dosyaları Shannon sınırından daha küçük bir boyuta sıkıştıran bir sıkıştırma yöntemi var olabilir mi?
Kombinatoryal kodlama gerçekten Shannon sınırını aşan dosyaları sıkıştırırsa, istediğimiz dosya boyutuna ulaşana kadar dosyayı tekrar tekrar sıkıştırmak mümkün değil mi?