Sıkıştırma yöntemlerinin iki ana gruba ayrılabileceğini anlıyorum:
- global
- yerel
İlk küme, işlenen verilerden bağımsız olarak çalışır, yani verilerin herhangi bir özelliğine dayanmazlar ve bu nedenle veri kümesinin herhangi bir parçası üzerinde (sıkıştırma işleminden önce) herhangi bir ön işleme gerek duymazlar. Öte yandan, yerel yöntemler verileri analiz eder ve genellikle sıkıştırma oranını artıran bilgileri çıkarır.
Bu yöntemlerden bazılarını okurken tek yöntemin evrensel olmadığını fark ettim , bu da beni "globality" ve "universality" olarak aynı şeyi ifade ettiğini düşündüğümden şaşırttı. Tekli yöntem, kodlamasını sağlamak için verilerin özelliklerine dayanmaz (yani, küresel bir yöntemdir) ve bu nedenle küresel / evrensel olmalıdır, değil mi?
Birincil sorularım:
- Evrensel ve küresel yöntemler arasındaki fark nedir?
- Bu sınıflandırmalar eşanlamlılar değil mi?