Popüler DEFLATE algoritması, Lempel-Ziv'in üstünde Huffman kodlamasını kullanır.
Genel olarak, rastgele bir veri kaynağımız varsa (= 1 bit entropi / bit), Huffman dahil hiçbir kodlamanın ortalama olarak sıkıştırması olası değildir. Lempel-Ziv "mükemmel" olsaydı (uzunluk sonsuza kadar giderken çoğu kaynak sınıfı için yaklaşır), Huffman ile post kodlama yardımcı olmaz. Tabii ki, Lempel-Ziv en azından sonlu uzunlukla mükemmel değildir ve bu nedenle biraz fazlalık kalır.
Bu kalan artıklık, Huffman kodlamasını kısmen ortadan kaldırarak sıkıştırmayı geliştirir.
Sorum şu: Bu kalan artıklık neden Luff tarafından değil Huffman kodlamasıyla başarıyla ortadan kaldırılıyor? Huffman'a karşı LZ'nin hangi özellikleri bunu gerçekleştirir? Sadece LZ'yi tekrar çalıştırmak (yani, LZ sıkıştırılmış verileri LZ ile ikinci kez kodlamak) benzer bir şey başarabilir mi? Değilse, neden olmasın? Benzer şekilde, önce Huffman ile ve daha sonra LZ ile sıkıştırılır ve eğer değilse, neden?
GÜNCELLEME: LZ'den sonra bile bir miktar fazlalığın kalacağı açıktır. Birkaç kişi bu noktaya değindi. Açık olmayan şey şu: Kalan artıklık neden Huffman tarafından LZ'den daha iyi ele alınıyor? LZ'nin Huffman'dan daha iyi çalıştığı orijinal kaynak yedekliliğinin aksine, benzersiz olan nedir?