Yüzlerce terabayt veriye sahip istemcileri görmeye başlıyorum (SQL Server kurulumlarında). Bazı işletmelerdeki toplam veri hacmi bir petabaytın anlamlı kısımlarına yaklaştıkça, bu büyüklükle uğraşan insanların onu korumak için neler yaptığını görmek için orada kolektif bilgi tabanını tuval haline getirmek istiyorum.
Açık olan sorun, bu kadar çok verinin birden fazla yedeklemesinin depolanmasının, işletme sınıfı depolama, heck, hatta sadece RAID-5 kullanarak oldukça pahalı olmasıdır.
Gördüğüm seçenekler şunlardır:
- Başka bir veri merkezindeki verilerin ayna kopyasını oluşturun ve sürekli olarak farklılıklar gönderin (veri kaynağınız için mevcut olan herhangi bir mekanizmayı kullanarak (ör. Günlük gönderimi veya SQL Server ile veritabanı yansıtma)
- Ağır bir sıkıştırma algoritması kullanarak düzenli yedeklemeler alın (muhtemelen yalnızca verilerin yoğun bir şekilde sıkıştırılmasına iyi bir şekilde katkıda bulunması durumunda uygundur )
- Verilerin kritik / değişen kısımlarının parça parça yedeklerini alın.
- Verileri yedeklemeyin ve yolsuzluk tanrılarına güvenmeyin.
Seçenek # 4'ün varsayılan olarak kabul edildiğini görüyorum ve bir HA / DR uzmanı olarak gerçekten korkutucu, ama alternatif olarak ne öneririm? # 1 en iyi yaklaşım olduğunu düşünüyorum, ancak # 4 ve muhtemelen # 3 dışında herhangi bir alternatif önerildiğinde "öyle düşünmüyorum" olağan cevaptır.
Şimdi, elbette verilerin değişim hızına ve kritikliğine bağlıdır. Microsoft'ta çalışırken SQL Server'ın tüm HA özelliklerinden sorumlu olduğum için buna cevap vermeye gerek yok, bu yüzden 'buna bağlı' argümanlarında iyi bilgim var - bu benim yakalama ifadem :-)
Kaçırdığım alternatifleri duymak ya da diğer herkesin aynı teknede olduğunu ve daha fazla depolamaya çok fazla para harcamak için gerçekçi bir alternatif olmadığını duymak isterim.
Şimdiden teşekkürler - iyi düşünülmüş ve ifade edilen tüm cevaplara kredi verilecektir.