Minimal lauffähiges Beispiel
Damit dies sinnvoll ist, müssen Sie die Grundlagen des Paging verstehen: https://stackoverflow.com/questions/18431261/how-does-x86-paging-work und insbesondere, dass das Betriebssystem virtuellen Speicher über Seitentabellen zuordnen kann / die interne Speicherbuchhaltung (virtueller VSZ-Speicher), bevor tatsächlich ein Backup-Speicher im RAM oder auf der Festplatte (RSS-residenter Speicher) vorhanden ist.
Um dies in Aktion zu beobachten, erstellen wir ein Programm, das:
Haupt c
#define _GNU_SOURCE
#include <assert.h>
#include <inttypes.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <sys/mman.h>
#include <unistd.h>
typedef struct {
unsigned long size,resident,share,text,lib,data,dt;
} ProcStatm;
/* https://stackoverflow.com/questions/1558402/memory-usage-of-current-process-in-c/7212248#7212248 */
void ProcStat_init(ProcStatm *result) {
const char* statm_path = "/proc/self/statm";
FILE *f = fopen(statm_path, "r");
if(!f) {
perror(statm_path);
abort();
}
if(7 != fscanf(
f,
"%lu %lu %lu %lu %lu %lu %lu",
&(result->size),
&(result->resident),
&(result->share),
&(result->text),
&(result->lib),
&(result->data),
&(result->dt)
)) {
perror(statm_path);
abort();
}
fclose(f);
}
int main(int argc, char **argv) {
ProcStatm proc_statm;
char *base, *p;
char system_cmd[1024];
long page_size;
size_t i, nbytes, print_interval, bytes_since_last_print;
int snprintf_return;
/* Decide how many ints to allocate. */
if (argc < 2) {
nbytes = 0x10000;
} else {
nbytes = strtoull(argv[1], NULL, 0);
}
if (argc < 3) {
print_interval = 0x1000;
} else {
print_interval = strtoull(argv[2], NULL, 0);
}
page_size = sysconf(_SC_PAGESIZE);
/* Allocate the memory. */
base = mmap(
NULL,
nbytes,
PROT_READ | PROT_WRITE,
MAP_SHARED | MAP_ANONYMOUS,
-1,
0
);
if (base == MAP_FAILED) {
perror("mmap");
exit(EXIT_FAILURE);
}
/* Write to all the allocated pages. */
i = 0;
p = base;
bytes_since_last_print = 0;
/* Produce the ps command that lists only our VSZ and RSS. */
snprintf_return = snprintf(
system_cmd,
sizeof(system_cmd),
"ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == \"%ju\") print}'",
(uintmax_t)getpid()
);
assert(snprintf_return >= 0);
assert((size_t)snprintf_return < sizeof(system_cmd));
bytes_since_last_print = print_interval;
do {
/* Modify a byte in the page. */
*p = i;
p += page_size;
bytes_since_last_print += page_size;
/* Print process memory usage every print_interval bytes.
* We count memory using a few techniques from:
* https://stackoverflow.com/questions/1558402/memory-usage-of-current-process-in-c */
if (bytes_since_last_print > print_interval) {
bytes_since_last_print -= print_interval;
printf("extra_memory_committed %lu KiB\n", (i * page_size) / 1024);
ProcStat_init(&proc_statm);
/* Check /proc/self/statm */
printf(
"/proc/self/statm size resident %lu %lu KiB\n",
(proc_statm.size * page_size) / 1024,
(proc_statm.resident * page_size) / 1024
);
/* Check ps. */
puts(system_cmd);
system(system_cmd);
puts("");
}
i++;
} while (p < base + nbytes);
/* Cleanup. */
munmap(base, nbytes);
return EXIT_SUCCESS;
}
GitHub Upstream .
Kompilieren und ausführen:
gcc -ggdb3 -O0 -std=c99 -Wall -Wextra -pedantic -o main.out main.c
echo 1 | sudo tee /proc/sys/vm/overcommit_memory
sudo dmesg -c
./main.out 0x1000000000 0x200000000
echo $?
sudo dmesg
wo:
Programmausgabe:
extra_memory_committed 0 KiB
/proc/self/statm size resident 67111332 768 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 1648
extra_memory_committed 8388608 KiB
/proc/self/statm size resident 67111332 8390244 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 8390256
extra_memory_committed 16777216 KiB
/proc/self/statm size resident 67111332 16778852 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 16778864
extra_memory_committed 25165824 KiB
/proc/self/statm size resident 67111332 25167460 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 25167472
Killed
Status beenden:
137
was nach der 128 + Signalnummer-Regel bedeutet, dass wir eine Signalnummer haben 9
, die man 7 signal
besagt , dass SIGKILL vom Linux -Killer für nicht genügend Arbeitsspeicher gesendet wird .
Ausgangsinterpretation:
- Der virtuelle VSZ-Speicher bleibt nach der mmap konstant bei
printf '0x%X\n' 0x40009A4 KiB ~= 64GiB
( ps
Werte in KiB).
- RSS "reale Speichernutzung" steigt nur träge, wenn wir die Seiten berühren. Zum Beispiel:
- Auf dem ersten Druck haben wir
extra_memory_committed 0
, was bedeutet, dass wir noch keine Seiten berührt haben. RSS ist ein kleines 1648 KiB
Programm, das für den normalen Programmstart wie Textbereiche, Globals usw. vorgesehen ist.
- auf dem zweiten druck haben wir seiten geschrieben
8388608 KiB == 8GiB
. Dadurch erhöhte sich RSS um genau 8GIB auf8390256 KiB == 8388608 KiB + 1648 KiB
- RSS nimmt weiterhin in Schritten von 8 GB zu. Der letzte Ausdruck zeigt ungefähr 24 GiB Speicher und bevor 32 GiB gedruckt werden konnten, hat der OOM-Killer den Vorgang abgebrochen
Siehe auch: Benötigen Sie eine Erklärung zu Resident Set Size / Virtual Size
OOM Killer Logs
Unsere dmesg
Befehle haben die OOM-Killer-Protokolle angezeigt.
Eine genaue Interpretation dieser wurde angefragt bei:
Die allererste Zeile des Protokolls lautete:
[ 7283.479087] mongod invoked oom-killer: gfp_mask=0x6200ca(GFP_HIGHUSER_MOVABLE), order=0, oom_score_adj=0
Interessanterweise war es der MongoDB-Daemon, der immer auf meinem Laptop im Hintergrund lief, der den OOM-Killer auslöste, vermutlich, als das arme Ding versuchte, Speicher zuzuweisen.
Der OOM-Killer muss jedoch nicht unbedingt denjenigen töten, der ihn aufgeweckt hat.
Nach dem Aufruf druckt der Kernel eine Tabelle oder Prozesse aus, einschließlich oom_score
:
[ 7283.479292] [ pid ] uid tgid total_vm rss pgtables_bytes swapents oom_score_adj name
[ 7283.479303] [ 496] 0 496 16126 6 172032 484 0 systemd-journal
[ 7283.479306] [ 505] 0 505 1309 0 45056 52 0 blkmapd
[ 7283.479309] [ 513] 0 513 19757 0 57344 55 0 lvmetad
[ 7283.479312] [ 516] 0 516 4681 1 61440 444 -1000 systemd-udevd
und weiter vorne sehen wir, dass unsere eigene kleine main.out
tatsächlich bei der vorherigen Anrufung getötet wurde:
[ 7283.479871] Out of memory: Kill process 15665 (main.out) score 865 or sacrifice child
[ 7283.479879] Killed process 15665 (main.out) total-vm:67111332kB, anon-rss:92kB, file-rss:4kB, shmem-rss:30080832kB
[ 7283.479951] oom_reaper: reaped process 15665 (main.out), now anon-rss:0kB, file-rss:0kB, shmem-rss:30080832kB
In diesem Protokoll wird der score 865
Prozess erwähnt, der vermutlich die höchste (schlechteste) OOM-Killer-Punktzahl aufwies. Wie entscheidet der OOM-Killer, welcher Prozess zuerst beendet wird?
Interessanterweise geschah anscheinend alles so schnell, dass bevor der freigegebene Speicher abgerechnet wurde, der oom
durch den DeadlineMonitor
Vorgang wieder aufgeweckt wurde :
[ 7283.481043] DeadlineMonitor invoked oom-killer: gfp_mask=0x6200ca(GFP_HIGHUSER_MOVABLE), order=0, oom_score_adj=0
und diesmal, dass einige Chromium-Prozess, die in der Regel mein Computer normales Gedächtnisschwein ist getötet:
[ 7283.481773] Out of memory: Kill process 11786 (chromium-browse) score 306 or sacrifice child
[ 7283.481833] Killed process 11786 (chromium-browse) total-vm:1813576kB, anon-rss:208804kB, file-rss:0kB, shmem-rss:8380kB
[ 7283.497847] oom_reaper: reaped process 11786 (chromium-browse), now anon-rss:0kB, file-rss:0kB, shmem-rss:8044kB
Getestet in Ubuntu 19.04, Linux-Kernel 5.0.0.