Diese Frage ähnelt einer allgemeineren Frage nach dem richtigen theoretischen Modell eines Computers zum Entwerfen von Algorithmen und Datenstrukturen.
Ich frage hier speziell nach aktuellen Hochleistungscomputern (wie den als Top 500 aufgelisteten ) oder sogar nach kommende Supercomputer.
Angesichts der Tatsache, dass diese Computer in der Regel mit riesigen Datenmengen arbeiten (es scheint, dass einige Leute solche Maschinen hauptsächlich verwenden, weil sie über einen enormen kombinierten Hauptspeicher verfügen), gibt es Aspekte des I / O-Modells (das 1988 von Aggarwal und Vitter eingeführt wurde ) und seiner parallelen Version , sollte die PEM ( Arge, Goodrich, Nelson und Sitchinava im Jahr 2008 ) anwesend sein. Auf der anderen Seite sollte Kommunikation eine Rolle spielen, insbesondere die Bestrafung von extrem kleinen Paketen an alle anderen Rechenknoten.
Wie Sie sich vielleicht vorstellen können, habe ich keine Angst, dass mir beim Erstellen eines neuen Modells die Ideen ausgehen, aber ich bin ein wenig besorgt, dass ich dabei frühere Versuche übersehen könnte, insbesondere weil ich den Eindruck habe, dass die Jahre 1980 bis 1995 oder so gab es viele solcher Modellierungsversuche (wie BSP- oder Brückenmodelle), die anscheinend nicht weit verbreitet waren.
Welche Modelle sollte ich mir genauer ansehen?