Bunun nedeni, DRAM'ın bant genişliğini artırmak, gecikmeyi azaltmaktan daha kolay ve ucuzdur. Verileri açık bir ram satırından almak için önemsiz miktarda çalışma gereklidir.
Sütun adresinin kodu çözülmeli, hangi hatlara erişmek için hangi hatların seçilmesi gerektiğine karar verilmelidir ve verilerin çip üzerinde çıkış tamponlarına doğru hareket etmesi gerekir. Bu, özellikle de SDRAM yongalarının yüksek ram yoğunluklarına göre tasarlanmış ve yüksek mantık hızlarına uygun olmayan bir proseste üretildiği göz önüne alındığında biraz zaman alır. DDR (1,2,3 veya 4) kullanılarak söylenen bant genişliğini arttırmak için, mantığın çoğu genişletilebilir veya boru hattına bağlanabilir ve önceki nesillerle aynı hızda çalışabilir. Daha hızlı olması gereken tek şey, DDR pinleri için I / O sürücüsüdür.
Aksine, gecikmeyi azaltmak için tüm işlemin hızlandırılması gerekir, bu daha zordur. Büyük olasılıkla, koçun parçalarının yüksek hızlı CPU'lara benzer bir proseste yapılması gerekecektir, maliyeti büyük oranda arttırır (yüksek hızlı işlem daha pahalıdır, artı her bir yonganın 2 farklı işlem yapması gerekir).
CPU önbelleklerini RAM ve sabit disk / SSD ile karşılaştırırsanız, depolama alanı büyük olmakla depolama alanı hızlı olmak arasında ters bir ilişki vardır. L1 $ çok hızlı, ancak yalnızca 32 ile 256kB arasında veri tutabiliyor. Bu kadar hızlı olmasının nedeni küçük olması:
- Kullanarak CPU'ya çok yakın yerleştirilebilir, yani verilerin elde edilmesi için daha kısa bir mesafe kat etmesi gerekir
- Üzerindeki kablolar daha kısa yapılabilir, yine de verilerin dolaşması daha az zaman alır.
- Çok fazla alan veya çok sayıda transistör gerektirmez, bu nedenle hızı optimize edilmiş bir işlem yapmak ve depolanan bit başına çok fazla güç kullanmak bu kadar pahalı değildir.
Hiyerarşiyi yükseltirken, her bir depolama seçeneğinin kapasitesi daha da artar, ancak alanda daha da büyür ve onu kullanan cihazdan daha uzağa götürür, bu da cihazın yavaşlaması gerektiği anlamına gelir.