Maschine: Dell r815, CentOS 5.4, 256 GB RAM, 4 x 12 Kerne.
Wir haben eine Anwendung, die eine 275 GB-Datei hat. Es sortiert 20 GB Daten gleichzeitig an Ort und Stelle, dh es tauscht Bits aus und ersetzt sie in derselben Datei. Das alles funktioniert gut.
Es gibt einen letzten Durchgang, der dann die gesamte Datei durchliest und eine Zusammenführungssortierung für die verschiedenen 20-GB-Blöcke durchführt und diese in eine ganz neue Datei ausgibt.
Dieser Prozess scheint für eine Weile in Ordnung zu sein und es landet bei etwa 50 GB auf der Festplatte. Irgendwann danach geht die GANZE Maschine aus.
Einfache Befehle wie " ps -ef
," ls -al
hängen lange und belegen 100% der CPU (das ist nur ein Kern).
Wenn top
ich mir die Speicherstatistiken ansehe, sehe ich, dass sie ungefähr 120 GB RAM (also 128 GB frei) belegen und 120 GB im Bereich "zwischengespeichert" haben.
Hat jemand diese Art von Verhalten schon einmal gesehen? Der gleiche Prozess läuft gut auf einem Computer mit 64 GB Arbeitsspeicher. Ich denke also, dass er mit dem RAM-Speicher zusammenhängt, den ich auf dem Computer habe.
(Während wir sprechen, führe ich den Test auf diesem Computer mit allen bis auf 64 GB durch, um ein Hardwareproblem auszuschließen.)
Vermisse ich vielleicht ein paar vm params /etc/sysctrl.conf
?
Vielen Dank!