Wo ich arbeite, haben wir zahlreiche "Big Iron" -Server, die zum Hosten vieler virtueller Maschinen mit einem Xen-Hypervisor verwendet werden. Diese sind normalerweise mit 32 GB RAM, Dual Quad Core-Prozessen und schnellen Festplatten mit E / A-Kapazität konfiguriert.
Wir sind an dem Punkt angelangt, an dem die vorhandene Hardwarekonfiguration etwas länger wird und es Zeit ist, größere, schnellere und glänzendere neue Hardware zu beschaffen.
Wie oben erwähnt, wurde das vorhandene Kit mit 32 GB RAM bereitgestellt, wodurch die Anzahl der VMs, die wir auf einem Host bereitstellen können, effektiv begrenzt wurde.
Bei der Untersuchung neuerer Hardware wird jedoch deutlich, dass Sie auf einem einzelnen Computer mit 64, 72 oder sogar 96 GB in einem einzelnen Gehäuse immer mehr RAM erhalten können. Dies ermöglicht es uns offensichtlich, mehr Maschinen zu einem bestimmten Host zu bringen, was immer ein Gewinn ist. Die bisher abgeschlossene Analyse deutet darauf hin, dass der begrenzende Faktor nun auf das Festplattensubsystem verschoben wird.
Das Problem besteht nun darin, eine Vorstellung davon zu bekommen, wo wir uns befinden ... Aufgrund der Verwendung wissen wir, dass wir nicht in Bezug auf die E / A-Bandbreite, sondern vielmehr in Bezug auf die Anzahl der zufälligen I begrenzt sind / O Operationen, die abgeschlossen werden können. Wir wissen anekdotisch, dass iowait, sobald wir diesen Punkt erreicht haben, in die Höhe schießen wird und die gesamte Maschinenleistung den Hunden zugute kommt.
Dies ist der Kern der Frage, die ich stelle. Ist jemandem eine Möglichkeit bekannt, die vorhandene E / A-Leistung genau in Bezug auf die Anzahl der abgeschlossenen zufälligen E / A-Operationen genau zu verfolgen / zu bestimmen?
Was ich wirklich versuche, um eine Metrik zu erhalten, ist "diese Konfiguration kann erfolgreich X Anzahl zufälliger E / A-Anforderungen verarbeiten, und wir führen derzeit (im Durchschnitt) Y-Ops mit einer Spitze von Z-Ops durch".
Danke im Voraus!