Mevcut ve gelecekteki yüksek performanslı bilgisayarlar için algoritmalar tasarlamak için doğru teorik model nedir


20

Bu soru, bir bilgisayarın algoritma ve veri yapılarını tasarlamak için doğru teorik modelin ne olduğu hakkında daha genel bir soruya benzer .
Burada, özellikle mevcut yüksek performanslı bilgisayarlar ( Top 500 olarak listelenenler gibi ) veya hatta yaklaşan süper bilgisayarlar.

Bu bilgisayarların genellikle I / O modelinin ( 1988'de Aggarwal ve Vitter tarafından tanıtıldı ) ve paralel versiyonunun büyük veri kümeleri üzerinde çalıştığı göz önüne alındığında (bazı insanlar bu makineleri çoğunlukla büyük birleşik ana belleğe sahip oldukları için kullanıyor gibi görünüyor ) ve paralel sürümü , PEM ( 2008'de Arge, Goodrich, Nelson ve Sitchinava ) mevcut olmalıdır. Öte yandan, iletişim ile ilgili bir şey olmalı, özellikle ultra küçük paketleri diğer tüm bilgisayar düğümlerine cezalandırmak.

Tahmin edebileceğiniz gibi, yeni bir model oluştururken fikirlerim tükendiğinden korkmuyorum, ancak bunu yapmak için önceki girişimleri göz ardı edebileceğimden biraz endişeliyim, özellikle 1980- 1995 ya da öylesine yaygın olarak kullanılmamış gibi görünen birçok modelleme denemesi (BSP ya da köprüleme modelleri gibi) gördü.

Hangi modellere daha yakından bakmalıyım?


bu hiç cevap vermez, ancak mevcut ve gelecek süper bilgisayarlar için herhangi bir model değil, gömülü hatalar / hata toleransı.
Sylvain Peyronnet

Flynn'in taksonomisine bir bakın. Wikipedia'ya göre, "TOP500 süper bilgisayarlarının tümü ilk 10 ve çoğu MIMD mimarisine dayanıyor". en.wikipedia.org/wiki/MIMD
Mohammad Al-Turkistany

şu cümleyi açıklığa kavuşturabilirsiniz: "Öte yandan, iletişim ile ilgili bir şey olmalı, özellikle de ultra küçük paketleri diğer tüm bilgisayar düğümlerine cezalandırmak ." bu bir yazım hatası mı? o edilmelidir bastırıyor ? bu soruya bir cevap paralel tasarım modelleri olabilir, örneğin mapreduce, Hoare CSP? ayrıca bkz. önbellek kayıtsız algoritmalar, wikipedia
vzn

Yanıtlar:


9

PODC 2009'da Bruce Hendrickson, bu konular hakkında davetli bir konuşma yaptı. (Slaytları çevrimiçi görünmüyor, ancak görüp göremeyeceğinizi sormak isteyebilirsiniz.) Henüz "doğru" bir model olduğunu düşünmüyorum - sizin için bonus! - ancak makalelerine, özellikle de çok iş parçacıklı makinelerde çok az yapıya sahip (yani "modern" veri kümeleri) çok büyük grafikleri nasıl ele alacağını bulmaya çalıştığı Grafikler ve Mimariler sayfasındaki makalelere bakmanızı öneririm .


İşaretçi için teşekkürler. Buna bakarak, teorik analize izin verecek bir model tanımlamak için çok fazla olmadığı izlenimine kapıldım. Bir şeyi gözden kaçırır mıyım? Belki de onunla doğrudan iletişime geçmeliyim.
Riko Jacob

@Riko Jacob: Hendrickson'un bir modelciden ziyade bir uygulayıcı olduğuna katılıyorum. Gerçi, ihtiyaç duyulan şey için mükemmel bir sezgiye sahip olduğunu düşündüm. Modeller hakkında makaleler istiyorsanız , Teori ve Çok Çekirdek Atölyesi ile daha fazla ilgilenebilirsiniz . Yine de bu modellerin hiçbirini tatmin edici bulmuyorum ve ne bulduğunuzu görmek çok isterim. :-)
Aaron Sterling

8

Belirsiz olan bir konu önbelleklerin nasıl gelişeceğidir. Nikos Hardavellas'ın 2009 tezi, bunları ölçeklenebilir bellek sistemlerine fiziksel sınırlar da dahil olmak üzere bir sistem perspektifinden ele alıyor. Tez böyle bir model sunmaz, ancak size bazı ipuçları verebilir.


4

logx


İçine baktıktan sonra bana önbellek-habersiz modelin öncüsü gibi görünüyor. Paralel işleme hakkında da bir fikir görmedim. Burada bir şey mi kaçırdım?
Riko Jacob

Bence daha çok hiyerarşik bellek modelleri hakkında, bu doğru.
Suresh Venkat
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.