Yüksek performanslı bir veri sıkıştırma sistemi için test senaryoları yazıyorum. (peki, tam olarak değil, ancak test amacıyla bu şekilde tanımlanabilir)
Test için bir dizinde 500GB ~ 3TB rasgele dosyalar üretmeliyim.
Şimdilik kullanıyorum /dev/urandomama bunun rasgele olma sorunu var.
Hiçbir şey bir seferde sıfırlarla dolu dosyaları almayacağımı garanti etmiyor ve verime olumsuz olarak yansıtması gereken algo değişikliği yüksek verimli görünecek.
Kalıcı olarak saklamak zorunda olmadan ve öngörülebilir olması için bu miktarda rasgele veri üretmenin bir yolu var mı?
gibi bir şey: bir işlev tohum, veri üretmek, veri incelemek, tohum taahhüt, her zaman aynı oluşturulan veri alacağına güven.
Urandom ekebileceğini biliyorum, ama umduğum her zaman aynı verileri üretmek için işe yaramıyor.
/ dev / urandom'un sağladığı UNIX'in uygunluğuna benzer bir şey var mı?