Wenn die algorithmische Komplexität eines Algorithmus angegeben wird, wird angenommen, dass die zugrunde liegenden Berechnungen auf einem abstrakten Computer (z. B. RAM) ausgeführt werden, der sich einer modernen CPU nähert. Mit solchen Modellen können wir die zeitliche und räumliche Komplexität von Algorithmen angeben. Angesichts der Verbreitung von GPGPUs fragt man sich, ob es wohl bekannte Modelle gibt, bei denen man auch den Stromverbrauch berücksichtigen kann.
Es ist allgemein bekannt, dass GPUs eine beträchtliche Menge an Energie verbrauchen, und bestimmte Anweisungen fallen aufgrund ihrer Komplexität und Position auf dem hoch entwickelten Chip in verschiedene Kategorien des Energieverbrauchs. Anweisungen sind daher aus energetischer Sicht keine Einheitskosten (oder sogar feste Kosten). Eine triviale Erweiterung wäre, den Betriebskosten Gewichte zuzuweisen, aber ich suche nach einem leistungsstarken Modell, bei dem eine Operation / Anweisung nicht konstante Energieeinheiten kosten kann, z des Algorithmus oder unter Berücksichtigung der Ausfallwahrscheinlichkeit des Kühlsystems, das die Chips aufheizt und die Taktfrequenz verlangsamt usw.)
Gibt es solche Modelle, bei denen nicht-triviale Kosten und Fehler berücksichtigt werden können?