Dağıtılmış hesaplama alanı, dağıtılmış algoritmaları tanımlamak için tek bir matematik teorisi geliştirmede büyük ölçüde kısalmıştır. Birbiriyle uyumlu olmayan birkaç “model” ve dağınık hesaplama çerçevesi vardır. Değişen zamansal özelliklerin (asenkron, senkron, kısmi senkron), çeşitli iletişim ilkelerinin (mesaj geçen ve paylaşılan hafıza, yayın ve tek noktaya yayın gibi), birden fazla hata modelinde (başarısız durma, çökme kurtarma, ihmal gönderme, bizans ve benzeri) on) bizi, göreceli çözülebilirlik sonuçlarını karşılaştıran ve bu modeller ve çerçevelerdeki daha düşük sınırları karşılaştıran ve zorlu, anlaşılmaz ve zaman zaman imkansız hale gelen, çok sayıda sistem modeli, çerçeve ve metodolojiyi bıraktı.
Sorum çok basit, neden böyle? Dağıtılmış hesaplamanın (sıralı karşıtından) temelde farklı olan, araştırmayı birleşik bir dağıtılmış hesaplama teorisi olarak harmanlayamadığımızdan ne farklıdır? Sıralı hesaplamada, Turing Makineleri, Özyinelemeli Fonksiyonlar ve Lambda Calculus hepsi eşdeğerdir. Bu sadece bir şans darbesi miydi, yoksa sıralı bilgisayarları henüz dağıtılmış bilgisayarlı bilgisayarlarla gerçekleştirilemeyecek şekilde kapsüllenmesinde iyi bir iş çıkardık mı?
Başka bir deyişle, doğal olarak zarif bir teoriye boyun eğmeyecek şekilde dağıtılmıştır (ve öyleyse, nasıl ve neden?), Ya da biz böyle bir teoriyi keşfedecek kadar akıllı değil miyiz?
Fischer, Merritt DOI: 10.1007 / s00446-003-0096-6 tarafından "Bu sorunu ele alan tek referans:" Yirmi yıllık dağıtılmış hesaplama teorisi araştırmasının değerlendirilmesi "
Herhangi bir referans ya da açıklama gerçekten yardımcı olacaktır.