Herhangi bir küçük veritabanı işlemesi, dilin kendisinden kütüphaneler ve / veya yardımcı programlar kullanan Python / Perl / ... komut dosyaları ile kolayca ele alınabilir. Bununla birlikte, performans söz konusu olduğunda, insanlar C / C ++ / düşük seviyeli dillere ulaşma eğilimindedir. Kodu ihtiyaçlara göre uyarlama olasılığı, bu dilleri BigData için çekici kılan şeydir - bellek yönetimi, paralellik, disk erişimi ve hatta düşük düzeyli optimizasyonlar (C / C ++ düzeyinde montaj yapıları aracılığıyla).
Tabii ki bu tür faydalar bir bedel olmadan gelmeyecekti: kodu yazmak ve hatta bazen tekerleği yeniden icat etmek oldukça pahalı / yorucu olabilir. Mevcut kütüphanelerin bir sürü rağmen onlar gerektiğinde, insanlar kendileri tarafından kod yazmak için eğimlidir vermek performansı. Büyük veritabanlarını işlerken performans iddialarının kitaplıkları kullanmasını ne engeller ?
Örneğin, web sayfalarını sürekli olarak tarayan ve toplanan verileri ayrıştıran bir girişim düşünün. Her bir kayan pencere için, çıkarılan veriler üzerinde farklı veri madenciliği algoritmaları çalıştırılır. Geliştiriciler neden mevcut kütüphaneleri / çerçeveleri kullanarak tarama yapıyor (tarama, metin işleme ve veri madenciliği için olsun)? Halihazırda uygulanmış olan şeyleri kullanmak sadece tüm süreci kodlama yükünü hafifletmekle kalmaz, aynı zamanda çok zaman kazandırır.
Tek çekimde :
- kodu kendi başına yazmanın performans garantisi olmasını sağlayan nedir?
- neden olduğu riskli sen gerektiğinde bir çerçeveler / kütüphaneler güvenmek temin yüksek performans?