Das Gebiet des verteilten Rechnens ist bei der Entwicklung einer einzelnen mathematischen Theorie zur Beschreibung verteilter Algorithmen völlig unzulänglich. Es gibt verschiedene Modelle und Frameworks für verteilte Berechnungen, die einfach nicht miteinander kompatibel sind. Die bloße Explosion variierender zeitlicher Eigenschaften (Asynchronität, Synchronität, Teilsynchronität), verschiedener Kommunikationsprimitiven (Nachrichtenübergabe vs. gemeinsamer Speicher, Broadcast vs. Unicast), multipler Fehlermodelle (Fail-Stop, Crash-Recovery, Sendeauslassung, byzantinisch usw.) on) hat uns eine unlösbare Anzahl von Systemmodellen, Frameworks und Methoden hinterlassen, die es uns erschwert, unlösbar und manchmal unmöglich gemacht haben, relative Lösbarkeitsergebnisse und Untergrenzen über diese Modelle und Frameworks hinweg zu vergleichen.
Meine Frage ist ganz einfach, warum ist das so? Was ist an verteiltem Rechnen so grundlegend anders (als an sequenziellem Rechnen), dass wir die Forschung nicht zu einer einheitlichen Theorie des verteilten Rechnens zusammenfassen konnten? Beim sequentiellen Rechnen wurden Turing Machines, Recursive Functions und Lambda Calculus als gleichwertig eingestuft. War dies nur ein Glücksfall oder haben wir wirklich gute Arbeit geleistet, um sequentielles Computing auf eine Weise zu verkapseln, die mit verteiltem Computing erst noch erreicht werden kann?
Mit anderen Worten, ist verteiltes Rechnen von Natur aus einer eleganten Theorie nicht gewachsen (und wenn ja, wie und warum?), Oder sind wir einfach nicht schlau genug, um eine solche Theorie zu entdecken?
Die einzige Referenz, die ich finden konnte, um dieses Problem anzugehen, ist: " Bewertung von zwei Jahrzehnten verteilter Computertheorieforschung " von Fischer und Merritt DOI: 10.1007 / s00446-003-0096-6
Hinweise oder Ausstellungen wären sehr hilfreich.