Çalıştığım yerde, bir Xen Hipervizörü kullanarak birçok sanal makineyi barındırmak için kullanılan çok sayıda "büyük demir" sunucumuz var. Bunlar genellikle 32 GB RAM, Çift Dört Çekirdekli işlemler ve G / Ç kapasitesine sahip hızlı disklerle yapılandırılır.
Mevcut donanım yapılandırmasının dişte biraz uzadığı ve şimdi daha büyük, daha hızlı ve daha parlak yeni donanımların kaynaklanma zamanı.
Yukarıda belirtildiği gibi, mevcut kit 32GB RAM ile konuşlandırıldı ve bir ana bilgisayara dağıtabileceğimiz VM sayısını etkili bir şekilde sınırladı.
Yine de daha yeni donanımları incelerken, tek bir şasi içinde 64, 72 ve hatta 96GB ile tek bir makinede daha fazla RAM alabileceğiniz açıktır. Açıkçası, bu her zaman bir kazanç olan belirli bir ana bilgisayara daha fazla makine almamıza izin verecektir. Şimdiye kadar tamamlanan analiz, sınırlama faktörünün artık disk alt sistemine kaydırılacağını göstermektedir.
Sorun şu anda, nerede olduğumuz hakkında bir fikir edinmeye çalışıyor ... Kullanım nedeniyle, G / Ç bant genişliği, daha fazla, rastgele I sayısı açısından sınırlı olmadığımızı biliyoruz. Tamamlanabilecek operasyonlar .. Anekdotla biliyoruz ki bu noktaya geldiğimizde iowait gök roketine gidiyor ve tüm makine performansı köpeklere gidiyor.
Şimdi sorduğum sorunun en önemli noktası, mevcut G / Ç performansını özellikle tamamlanan rastgele G / Ç işlemlerinin sayısı ile ilgili olarak doğru bir şekilde izlemenin / geliştirmenin bir yolunun farkında mı?
Gerçekten bir metrik almaya çalışıyorum "Bu yapılandırma başarıyla rastgele G / Ç istekleri sayısı X işleyebilir ve şu anda (ortalama) Z ops bir tepe ile Y ops yapıyoruz" dir.
Şimdiden teşekkürler!