Ich entwickle Software für das Energieberatungsgeschäft und bei der Überwachung des Energieverbrauchs in Rechenzentren habe ich festgestellt, dass das typische "Muster" der elektrischen Last eines Rechenzentrums nur eine flache Linie ist, da alle Geräte rund um die Uhr laufen. Wenn Sie dies mit dem tatsächlichen Nutzungsmuster (Netzwerklast, CPU-Auslastung usw.) vergleichen, das wir durchgeführt haben, haben Sie regelmäßig lange Strecken mit geringer Auslastung, aber der vollen verfügbaren Kapazität.
Diese Muster sind in vielen Fällen sehr vorhersehbar. Um Energie zu sparen, ist es hilfreich, einen Teil der Geräte (Server, Switches, Speicher) regelmäßig oder unter Bedingungen mit geringer Last auszuschalten. Ich kann mir jedoch einige Aspekte vorstellen, die betrachtet werden müssten, einschließlich
- Umgang mit Spitzenlasten oder plötzlichen Spitzen
- Datenkonsistenz zwischen Knoten
- lange Startzeiten (und möglicherweise Synchronisationszeiten) im Vergleich zur durchschnittlichen Betriebszeit eines Knotens
Es gibt wahrscheinlich mehr. Gibt es Software, die ein solches Szenario handhabt, und worauf sollte man sonst noch achten? Ist dies ein praktikabler Vorschlag?
Für meine Zwecke würde ein Cluster nicht unbedingt bedeuten, Computer auf Betriebssystemebene zu clustern. Identische Hosts, die Anforderungen über einen Load Balancer empfangen (dh Clustering auf Anwendungsebene), würden ebenfalls zählen. Ich bin mir nicht sicher, wie MySQL-Cluster oder ähnliches funktionieren, aber ich würde diese wahrscheinlich auch zählen.
Ich suche Rat für jedes Betriebssystem.
Siehe auch meinen Beitrag zur Energieeffizienz bei Stack Overflow, in dem diese Frage aufgeworfen wurde.