Bu soru, bir bilgisayarın algoritma ve veri yapılarını tasarlamak için doğru teorik modelin ne olduğu hakkında daha genel bir soruya benzer .
Burada, özellikle mevcut yüksek performanslı bilgisayarlar ( Top 500 olarak listelenenler gibi ) veya hatta yaklaşan süper bilgisayarlar.
Bu bilgisayarların genellikle I / O modelinin ( 1988'de Aggarwal ve Vitter tarafından tanıtıldı ) ve paralel versiyonunun büyük veri kümeleri üzerinde çalıştığı göz önüne alındığında (bazı insanlar bu makineleri çoğunlukla büyük birleşik ana belleğe sahip oldukları için kullanıyor gibi görünüyor ) ve paralel sürümü , PEM ( 2008'de Arge, Goodrich, Nelson ve Sitchinava ) mevcut olmalıdır. Öte yandan, iletişim ile ilgili bir şey olmalı, özellikle ultra küçük paketleri diğer tüm bilgisayar düğümlerine cezalandırmak.
Tahmin edebileceğiniz gibi, yeni bir model oluştururken fikirlerim tükendiğinden korkmuyorum, ancak bunu yapmak için önceki girişimleri göz ardı edebileceğimden biraz endişeliyim, özellikle 1980- 1995 ya da öylesine yaygın olarak kullanılmamış gibi görünen birçok modelleme denemesi (BSP ya da köprüleme modelleri gibi) gördü.
Hangi modellere daha yakından bakmalıyım?