Entropi terimi sadece termodinamik ve bilgi teorisinde değil, aynı zamanda veri sıkıştırma gerçek dünyasında da görülür. Bu bağlamda, kompresörün gördüğü entropi ürettiği bit sayısına eşittir. ("Kompresörün gördüğü entropi" dedim , çünkü entropi olarak kabul edilen şey, kompresörün giriş verilerini tanımlamak için kullandığı modele bağlıdır. Farklı kompresörlerin farklı boyutlarda dosyalar üretmesinin nedeni budur: biri diğerine sömürülebilir yapıdır.)
Bu, prensip olarak, kaynak kodu karmaşıklığına güzelce uygulanabilir: "Sadece" sadece tamamen standart uyumlu kaynak kodunda çalışan ve onu bir derleyici gibi ayrıştıran bir kompresör yazarak karşılık gelen sözdizimi ağacını üretir. Daha sonra bu sözdizimi ağacını yürütebilir ve her düğümde her noktada hangi düğümlerin mümkün olabileceğine karar verebilir ve bu düğümü bu bilgi ile kodlayabilir.
Örneğin, dil, varolan bir tanımlayıcıya veya parantez içine alınmış bir şeye veya belirli bir noktadaki bir ürüne izin veriyorsa, kompresör, tür bilgilerini dikkate alarak olası mevcut tanımlayıcıları sayar (bu tür 3 tanımlayıcınız olduğunu varsayalım) ) ekleyin ve 5 olasılık vererek iki olası alt ifade için 2 ekleyin. Böylece düğüm lb 5 = 2.32
bitlerle kodlanır . İki olası alt ifade durumunda, içeriklerini kodlamak için daha fazla bit gerekli olacaktır.
Bu gerçekten de kodun karmaşıklığı için olduğu gibi çok doğru bir ölçüm sağlayacaktır. Ancak, bu önlem hala işe yaramaz! Tüm kod karmaşıklığı ölçümlerinin işe yaramaz olmasının aynı nedeni işe yaramaz: Başarısız olan, ölçülen kod karmaşıklığı (ne olursa olsun) ve kodun çözdüğü sorunun karmaşıklığı arasındaki bağlantıyı çizmez. Sen edebilirsiniz hep LOC sayımları ile işvereniniz etkilemek için programlama problemlerine gülünç karmaşık çözümler bulmak, ancak hiçbir kod karmaşıklık ölçüsü görev çaba bir kısmını ile çözülmüş olabilirdi söyleyecektir.