Sen sor:
- Yazarların önerdiği gibi bu gerçekten uygulanabilir mi? Kağıda göre, sonuçları çok verimli ve verileri daima daha küçük bir boyuta sıkıştırıyor. Sözlük boyutu muazzam olmaz mı?
Evet tabi ki. Elle seçilmiş örnekleri için bile ("DOĞRU KÖPEK ÜZERİNDE HIZLI GÜMÜŞ FOX JUMPS"), sıkıştırma metninin her 4 bayt alt metnini içerdiğinden (örneğin bir tekrar için eksi 4 bayt "içerdiğinden" sıkıştırma elde edemiyorlar " ") ... ve metnin" sıkıştırılmış "sürümü tüm sözlüğü ve tüm bu asal sayı saçmalığını içermelidir.
- Bu, aynı algoritmayı kullanarak sıkıştırılmış verileri tekrarlamak için tekrar kullanılamaz mıydı? Açıktır ve kanıtlanmıştır, bu tür tekniklerin (sıkıştırılmış verilerin mümkün olduğu kadar tekrar sıkıştırıldığı, dosya boyutunu önemli ölçüde azalttığı) imkansız olduğu; Gerçekten de, tüm rastgele verilerin seti ile sıkıştırılmış veriler arasında hiçbir önyargı olmazdı. Öyleyse neden bu mümkün olacakmış gibi hissediyor?
Yine durumu iyi bir sezgisel kavrayışa sahip görünüyorsunuz. Hiçbir sıkıştırma düzeninin tüm girdiler üzerinde etkili olamayacağını sezgisel olarak fark ettiniz , çünkü eğer öyleyse, herhangi bir girişi tek bir bit halinde sıkıştırmak için tekrar tekrar uygulayabiliriz - ve sonra hiçlik!
Başka bir deyişle: .wav dosyalarınızı .mp3'e sıkıştırdıktan sonra, bunları sıkıştırıp dosya boyutunda herhangi bir gelişme elde edemezsiniz. MP3 kompresörünüz işini yaptıysa, ZIP kompresörünün yararlanabileceği bir kalıp kalmayacaktır.
(Aynısı şifreleme için de geçerlidir: Sıfır bir dosya alır ve seçilen şifreleme algoritmasına göre şifrelersem, sonuçta elde edilen dosya sıkıştırılabilir olmamalıdır , yoksa şifreleme algoritmam çıktıya "kalıp" sızdırıyor!)
- Tekniği henüz mükemmel olmasa bile, açıkça optimize edilebilir ve güçlü bir şekilde iyileştirilebilir. Bu neden daha yaygın olarak bilinmiyor / çalışılmıyor? Eğer gerçekten bu iddialar ve deneysel sonuçlar doğruysa, bu bilgi işlem için devrim niteliğinde olmaz mı?
Bu iddialar ve deneysel sonuçlar doğru değil .
Tom van der Zanden'in daha önce belirttiği gibi, Chakraborty, Kar ve Guchait'in "sıkıştırma algoritması" yalnızca sıkıştırma oranına ulaşmadığı için değil, aynı zamanda geri dönüşümsüzdür (matematik dersinde, "mükerrer" değil) hepsi aynı görüntüye "sıkıştıran" çok sayıda metin, çünkü algoritmaları temelde çarpma ve çarpma değişmelidir.
Bu kavramları sezgisel olarak anlamanızın sizi anında doğru sonuca götürdüğünü iyi hissetmelisiniz. Ve, zamanınızı boşaltabilirseniz, konuyu hiç düşünmeden açıkça düşünerek çok fazla zaman harcayan yazarların üzücü olduğunu hissetmelisiniz .
Gönderdiğiniz URL'nin bir seviyesinin üzerinde yer alan dosya dizini , hepsi aynı şekilde "Bilgi İşlem, Bilgi, İletişim ve Uygulamalarda Gelişen Araştırmalar Uluslararası Konferansı Bildirileri" olarak kabul edilen aynı kalitede 139 "bildiri" içerir. Bu normal tipte bir sahte konferans gibi görünüyor. Bu tür konferansların amacı hileli akademisyenlerin "dergide yayınlanma" deme hakkı verirken, aynı zamanda kaba olmayan organizatörlerin de tonlarca para kazanmalarını sağlamaktır. (Sahte konferanslar hakkında daha fazla bilgi için, bu reddit iş parçacığına veya konuyla ilgili çeşitli StackExchange mesajlarına göz atın .) Her alanda Sham konferansları bulunmaktadır. Sadece içgüdülerine güvenmeyi öğren ve "konferans devam ederken" okuduğun her şeye inanma.