Kodlama teorisinde, 'bir kodun ne kadar iyi olduğu', kodun üstesinden gelebilecek maksimum gürültü seviyesinin kaç kanal hatası düzeltilebileceği veya daha iyi ifade edilebileceği anlamına gelir.
Daha iyi kodlar elde etmek için kodlar (ikili kod yerine) büyük bir alfabe kullanılarak tasarlanır. Ve sonra, kod büyük oranda hatalı "sembollerle" başa çıkabilirse iyidir.
Bu neden hile yapmayı düşünmüyor? Demek istediğim, sadece her sembolü bir ikili dizgeye "çevirdiğimizde" ne olacağı umurumda değil mi? "Bit hızı oranı", "simge hatası" oranından farklıdır. Örneğin, bit hatası oranı 1/2'nin üzerine çıkamaz (bunu doğru anlarsam), yeterince büyük bir alfabe ile sembol hatası kadar çıkabilir . Bunun nedeni , kanalı yapay olarak bitlerden ziyade yalnızca "sembolleri" değiştirmekle kısıtladığımız için mi yoksa kodun daha iyi olması nedeniyle mi?