MS , Hollanda'da bu konuların bazılarını tartıştıkları bir teknoloji konuşması yaptı . Yavaşça başlar, ancak 20 dakikalık işaretin etrafında Hadoop etine girer.
Bunun özü "o bağlıdır". Eğer (en azından biraz) homojen bir veriyi bölümlere ayırmak için (en azından biraz) kolay anlaşılır bir şekilde düzenlenmişseniz, ne yaptığınıza bağlı olarak RDBMS ile bu yüksek veri hacimlerine ölçeklendirmek oldukça kolay olmalıdır. .
Hadoop ve MR, özellikle bu veriler mutlaka RDBMS dünyasında bulduğumuz kadar homojen veya yapılandırılmış olmadığında, büyük dağıtılmış veri taramalarına zorlandığınız durumlara daha uygun görünmektedir.
Büyük Veri çözümleri hangi sınırlamalara bağlı değildir? Bana göre, bağlı olmadıkları en büyük sınırlama vaktinden önce katı bir şema yapmak zorunda. Büyük Veri çözümleriyle, artık büyük miktarda veriyi "kutuya" aktarırsınız ve verilerin homojenliği ile başa çıkmak için daha sonra sorgularınıza mantık eklersiniz. Geliştiricinin bakış açısından, takas, projenin ön ucunda uygulama kolaylığı ve esneklik, sorgulamadaki karmaşıklık ve daha az veri tutarlılığıdır.