Durchschnittlich hohe Auslastung bei bescheidener CPU-Auslastung und fast keinem E / A-Aufwand


17

Die übliche Erklärung für die durchschnittliche hohe Auslastung bei geringer CPU-Auslastung unter Linux ist zu viel E / A (oder besser gesagt: unterbrechungsfreier Schlaf ).

Ich habe einen Dienst, der auf einem Cluster von 2-Core-VMs ausgeführt wird, die eine bescheidene CPU-Auslastung aufweisen (~ 55-70% Leerlauf), aber mehr als zwei Lastmittelwerte aufweisen, während IOs nahe Null, bescheidene Kontextwechsel und kein Auslagern auftreten. Polling mit pssehe ich nie Din der Spalte Prozessstatus.

Der Dienst ist Ruby 1.9 unter Einhorn ausgeführt. Es stellt eine Verbindung zu zwei vorgelagerten Postgres-Datenbanken her, die sehr schnelle durchschnittliche Anweisungsausführungen (~ 0,5 ms) liefern. Der Service protokolliert verstrichene Anforderungsdauern, die in der Produktion etwa doppelt so hoch sind, wie dies bei einer höheren Belastung unseres Netzwerks für Leistungstests der Fall war. Das einzige Überwachungssignal, das aus dem Gleichgewicht zu geraten scheint, ist der Lastdurchschnitt (und natürlich die durchschnittliche Antwortdauer), alles andere (CPU, Speicher, IO, Netzwerk, Cswitch, Intr) sind nominelle und übereinstimmende Projektionen.

Das System ist Ubuntu 10.04.4 LTS "Lucid". Uname ist Linux dirsvc0 2.6.32-32-server #62-Ubuntu SMP Wed Apr 20 22:07:43 UTC 2011 x86_64 GNU/Linux. Hypervisor ist VMWare ESX 5.1.

UPDATE: Weitere Infos wie von @ewwhite angefordert. Der Speicher ist ein virtuelles Festplattengerät, das einem NFS-Mount auf dem VM-Host zugeordnet ist, der an eine NetApp angeschlossen ist. Ich werde darauf hinweisen, dass alle Anzeichen dafür sprechen, dass keine nennenswerten Datenträger-E / A-Vorgänge stattfinden. Der Dienst liest und schreibt in Netzwerk-Sockets (~ 200 KB / s) und führt normale Zugriffs- und Fehlerprotokollierungen durch (mit einer Geschwindigkeit von ca. 20 KB / s). Der VM-Host verfügt über ein Paar Gigabit-Ports, die zu zwei oberen Rack-Switches führen, von denen jeder vier Gigabit-Ports mit einem kupfernen Core-Router verbunden hat. Jeder VM-Host verfügt über 24 (4 × 6) physische Kerne und 150 GB Arbeitsspeicher und beherbergt normalerweise etwa 30 VM-Gäste mit ähnlicher Größe, die eine Vielzahl verschiedener Dienste ausführen. In der Produktion werden diese Hosts niemals zu stark auf den Arbeitsspeicher und nur geringfügig auf die CPU übertragen.

Ich würde Ideen begrüßen, um die hohe Last zu erklären.

Hier sind einige Extrakt-Sar-Daten aus einem zweistündigen Fenster, das heute Mittag geöffnet ist:

sar -q # Lastdurchschnitt

              runq-sz  plist-sz   ldavg-1   ldavg-5  ldavg-15
12:05:01 PM         1       173      1.15      2.41      2.48
12:15:01 PM         0       173      0.96      1.56      1.99
12:25:01 PM         2       173      2.60      2.49      2.21
12:35:01 PM         1       173      1.44      2.10      2.06
12:45:01 PM         0       173      3.66      3.31      2.56
12:55:01 PM         0       173      3.05      2.66      2.43
01:05:01 PM         0       174      1.37      2.35      2.36
01:15:01 PM         0       173      3.06      3.07      2.60
01:25:01 PM         2       173      5.03      6.50      4.50
01:35:01 PM         0       173      4.26      5.61      4.98
01:45:01 PM         8       173      4.61      4.46      4.48
01:55:01 PM         0       173      3.30      3.60      3.92
02:05:01 PM         1       173      2.51      2.62      3.15

sar # cpu

                CPU     %user     %nice   %system   %iowait    %steal     %idle
12:05:01 PM     all     31.31      0.60      2.18      0.02      0.00     65.89
12:15:01 PM     all     27.51      0.60      2.07      0.02      0.00     69.79
12:25:01 PM     all     28.09      0.61      1.90      0.03      0.00     69.36
12:35:01 PM     all     32.04      0.67      2.26      0.02      0.00     65.02
12:45:01 PM     all     33.44      0.69      2.61      0.02      0.00     63.24
12:55:01 PM     all     30.62      0.63      2.14      0.02      0.00     66.59
01:05:01 PM     all     29.42      0.61      2.07      0.03      0.00     67.87
01:15:01 PM     all     31.93      0.62      2.39      0.02      0.00     65.05
01:25:01 PM     all     41.60      0.82      3.65      0.03      0.00     53.90
01:35:01 PM     all     43.14      0.88      3.68      0.03      0.00     52.28
01:45:01 PM     all     38.38      0.79      3.43      0.02      0.00     57.39
01:55:01 PM     all     30.65      0.61      2.23      0.03      0.00     66.49
02:05:01 PM     all     29.17      0.58      2.10      0.03      0.00     68.12

sar -d # disk

                  DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util 
12:05:01 PM    dev8-0      1.37      0.00     35.94     26.14      0.00      3.09      1.98      0.27
12:15:01 PM    dev8-0      1.65      0.00     39.89     24.23      0.00      2.96      1.98      0.33
12:25:01 PM    dev8-0      1.26      0.00     33.39     26.57      0.00      2.89      1.79      0.22
12:35:01 PM    dev8-0      1.33      0.00     35.23     26.52      0.00      3.15      1.82      0.24
12:45:01 PM    dev8-0      1.68      0.00     42.31     25.23      0.00      2.95      1.89      0.32
12:55:01 PM    dev8-0      1.44      0.00     35.76     24.86      0.00      3.20      1.88      0.27
01:05:01 PM    dev8-0      1.43      0.00     35.57     24.93      0.00      2.17      1.46      0.21
01:15:01 PM    dev8-0      1.74      0.00     43.13     24.74      0.01      3.88      2.15      0.37
01:25:01 PM    dev8-0      1.39      0.00     35.36     25.44      0.01      3.65      2.42      0.34
01:35:01 PM    dev8-0      1.32      0.00     33.74     25.65      0.00      3.39      2.09      0.28
01:45:01 PM    dev8-0      1.48      0.00     37.20     25.20      0.01      3.92      2.26      0.33
01:55:01 PM    dev8-0      1.62      0.00     39.36     24.35      0.01      3.27      1.70      0.27
02:05:01 PM    dev8-0      1.42      0.00     34.72     24.51      0.00      3.28      2.13      0.30

sar -n # Netzwerk

                IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s
12:05:01 PM      eth0    365.52    359.86    236.91    227.35      0.00      0.00      0.00
12:15:01 PM      eth0    344.55    337.10    221.20    206.47      0.00      0.00      0.00
12:25:01 PM      eth0    357.81    352.76    229.83    216.22      0.00      0.00      0.00
12:35:01 PM      eth0    372.62    366.34    239.95    227.99      0.00      0.00      0.00
12:45:01 PM      eth0    388.65    378.51    252.11    235.81      0.00      0.00      0.00
12:55:01 PM      eth0    364.50    359.19    233.63    222.82      0.00      0.00      0.00
01:05:01 PM      eth0    361.08    353.88    231.75    218.89      0.00      0.00      0.00
01:15:01 PM      eth0    370.41    363.19    240.53    224.16      0.00      0.00      0.00
01:25:01 PM      eth0    357.67    352.20    230.37    213.57      0.00      0.00      0.00
01:35:01 PM      eth0    354.89    348.58    226.29    214.61      0.00      0.00      0.00
01:45:01 PM      eth0    355.49    344.98    228.41    211.27      0.00      0.00      0.00
01:55:01 PM      eth0    335.96    331.13    213.85    204.26      0.00      0.00      0.00
02:05:01 PM      eth0    323.03    314.49    208.12    194.81      0.00      0.00      0.00

sar -w # Kontext wechselt

               proc/s   cswch/s
12:05:01 PM      0.97   2382.38
12:15:01 PM      2.58   2415.16
12:25:01 PM      0.84   2406.79
12:35:01 PM      0.84   2371.04
12:45:01 PM      2.70   2414.09
12:55:01 PM      0.84   2385.57
01:05:01 PM      1.20   2419.94
01:15:01 PM      2.57   2387.75
01:25:01 PM      0.85   2164.65
01:35:01 PM      0.84   2156.29
01:45:01 PM      2.53   2251.43
01:55:01 PM      1.01   2331.93
02:05:01 PM      0.96   2323.19

sar -B # Paging

             pgpgin/s pgpgout/s   fault/s  majflt/s  pgfree/s pgscank/s pgscand/s pgsteal/s    %vmeff
12:05:01 PM      0.00     17.97    549.43      0.00    289.21      0.00      0.00      0.00      0.00
12:15:01 PM      0.00     19.95   1179.08      0.00    405.61      0.00      0.00      0.00      0.00
12:25:01 PM      0.00     16.69    456.71      0.00    217.63      0.00      0.00      0.00      0.00
12:35:01 PM      0.00     17.61    480.42      0.00    240.01      0.00      0.00      0.00      0.00
12:45:01 PM      0.00     21.15   1210.09      0.00    424.96      0.00      0.00      0.00      0.00
12:55:01 PM      0.00     17.88    489.83      0.00    256.39      0.00      0.00      0.00      0.00
01:05:01 PM      0.00     17.79    624.89      0.00    387.26      0.00      0.00      0.00      0.00
01:15:01 PM      0.00     21.57   1168.87      0.00    393.34      0.00      0.00      0.00      0.00
01:25:01 PM      0.00     17.68    466.03      0.00    235.07      0.00      0.00      0.00      0.00
01:35:01 PM      0.00     16.87    435.24      0.00    199.43      0.00      0.00      0.00      0.00
01:45:01 PM      0.00     18.60   1125.69      0.00    432.85      0.00      0.00      0.00      0.00
01:55:01 PM      0.00     19.68    596.62      0.00    272.75      0.00      0.00      0.00      0.00
02:05:01 PM      0.00     17.36    511.80      0.00    243.83      0.00      0.00      0.00      0.00

sar -r # Speicher

            kbmemfree kbmemused  %memused kbbuffers  kbcached  kbcommit   %commit
12:05:01 PM   1017364   3041608     74.94    225564   1773324   1194728     16.64
12:15:01 PM   1014992   3043980     74.99    225564   1777268   1193688     16.63
12:25:01 PM   1009504   3049468     75.13    225564   1781360   1194504     16.64
12:35:01 PM    999484   3059488     75.38    225564   1785652   1194520     16.64
12:45:01 PM    994764   3064208     75.49    225564   1790136   1194864     16.65
12:55:01 PM    993772   3065200     75.52    225564   1794288   1194296     16.64
01:05:01 PM    993868   3065104     75.51    225564   1798584   1193428     16.63
01:15:01 PM    985016   3073956     75.73    225564   1802708   1194388     16.64
01:25:01 PM    992316   3066656     75.55    225564   1806804   1192996     16.62
01:35:01 PM    971732   3087240     76.06    225564   1810784   1194272     16.64
01:45:01 PM    968816   3090156     76.13    225564   1815036   1194556     16.64
01:55:01 PM    967968   3091004     76.15    225564   1818716   1194924     16.65
02:05:01 PM    966324   3092648     76.19    225564   1822452   1194516     16.64

ps aufx

USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root         2  0.0  0.0      0     0 ?        S    Jan28   0:00 [kthreadd]
root         3  0.0  0.0      0     0 ?        S    Jan28   0:01  \_ [migration/0]
root         4  0.0  0.0      0     0 ?        S    Jan28   1:01  \_ [ksoftirqd/0]
root         5  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [watchdog/0]
root         6  0.0  0.0      0     0 ?        S    Jan28   0:01  \_ [migration/1]
root         7  0.0  0.0      0     0 ?        S    Jan28   0:27  \_ [ksoftirqd/1]
root         8  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [watchdog/1]
root         9  0.0  0.0      0     0 ?        S    Jan28   0:37  \_ [events/0]
root        10  0.0  0.0      0     0 ?        S    Jan28   0:33  \_ [events/1]
root        11  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [cpuset]
root        12  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [khelper]
root        13  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [async/mgr]
root        14  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [pm]
root        16  0.0  0.0      0     0 ?        S    Jan28   0:02  \_ [sync_supers]
root        17  0.0  0.0      0     0 ?        S    Jan28   0:04  \_ [bdi-default]
root        18  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kintegrityd/0]
root        19  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kintegrityd/1]
root        20  0.0  0.0      0     0 ?        S    Jan28   0:03  \_ [kblockd/0]
root        21  0.0  0.0      0     0 ?        S    Jan28   0:12  \_ [kblockd/1]
root        22  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kacpid]
root        23  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kacpi_notify]
root        24  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kacpi_hotplug]
root        25  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ata/0]
root        26  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ata/1]
root        27  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ata_aux]
root        28  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ksuspend_usbd]
root        29  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [khubd]
root        30  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kseriod]
root        31  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kmmcd]
root        34  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [khungtaskd]
root        35  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kswapd0]
root        36  0.0  0.0      0     0 ?        SN   Jan28   0:00  \_ [ksmd]
root        37  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [aio/0]
root        38  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [aio/1]
root        39  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ecryptfs-kthrea]
root        40  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [crypto/0]
root        41  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [crypto/1]
root        44  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [pciehpd]
root        45  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [scsi_eh_0]
root        46  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [scsi_eh_1]
root        47  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kstriped]
root        50  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kmpathd/0]
root        51  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kmpathd/1]
root        52  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kmpath_handlerd]
root        53  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ksnapd]
root        54  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kondemand/0]
root        55  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kondemand/1]
root        56  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kconservative/0]
root        57  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kconservative/1]
root       213  0.0  0.0      0     0 ?        S    Jan28   0:24  \_ [mpt_poll_0]
root       274  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [mpt/0]
root       295  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [scsi_eh_2]
root       310  0.0  0.0      0     0 ?        S    Jan28   1:41  \_ [jbd2/sda1-8]
root       311  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ext4-dio-unwrit]
root       312  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [ext4-dio-unwrit]
root       342  0.0  0.0      0     0 ?        S    Jan28   0:54  \_ [flush-8:0]
root       627  0.0  0.0      0     0 ?        S    Jan28   0:00  \_ [kpsmoused]
root     18160  0.0  0.0      0     0 ?        S    Feb14   0:00  \_ [rpciod/0]
root     18161  0.0  0.0      0     0 ?        S    Feb14   0:00  \_ [rpciod/1]
root     18162  0.0  0.0      0     0 ?        S    Feb14   0:00  \_ [nfsiod]
root         1  0.0  0.0  61824  2872 ?        Ss   Jan28   0:11 /sbin/init
root       372  0.0  0.0  16904   860 ?        S    Jan28   0:00 upstart-udev-bridge --daemon
root       375  0.0  0.0  17072  1012 ?        S<s  Jan28   0:00 udevd --daemon
root      1054  0.0  0.0  16860   672 ?        S<   Jan28   0:00  \_ udevd --daemon
root     18163  0.0  0.0  17068   832 ?        S<   Feb14   0:00  \_ udevd --daemon
daemon     654  0.0  0.0   8256   644 ?        Ss   Jan28   0:00 portmap
root       788  0.0  0.0  49260  2592 ?        Ss   Jan28   0:00 /usr/sbin/sshd -D
root      8095  0.0  0.1 100888  4068 ?        Ss   16:03   0:00  \_ sshd: root@pts/0    
root      8157  0.0  0.0  11212  2084 pts/0    Ss   16:03   0:00      \_ -bash
root     15777  0.0  0.0   7172  1084 pts/0    R+   17:28   0:00          \_ ps aufx
statd      808  0.0  0.0  10392   844 ?        Ss   Jan28   0:00 rpc.statd -L
root       829  0.0  0.0    140    32 ?        Ss   Jan28   0:16 runsvdir -P /etc/service log: .....................................................................................................
root       834  0.0  0.0    116    32 ?        Ss   Jan28   0:00  \_ runsv chef-client
root       838  0.0  0.0    136    48 ?        S    Jan28   0:00      \_ svlogd -tt ./main
root     30898  0.2  1.8 192296 75736 ?        S    01:57   2:25      \_ /usr/bin/ruby1.8 /usr/bin/chef-client -i 1800 -s 60 -L /var/log/chef/client.log
root       832  0.0  0.0   6080   656 tty4     Ss+  Jan28   0:00 /sbin/getty -8 38400 tty4
root       841  0.0  0.0   6080   656 tty5     Ss+  Jan28   0:00 /sbin/getty -8 38400 tty5
root       844  0.0  0.0   6080   656 tty2     Ss+  Jan28   0:00 /sbin/getty -8 38400 tty2
root       845  0.0  0.0   6080   660 tty3     Ss+  Jan28   0:00 /sbin/getty -8 38400 tty3
root       847  0.0  0.0   6080   656 tty6     Ss+  Jan28   0:00 /sbin/getty -8 38400 tty6
root       849  0.0  0.0  21076  1044 ?        Ss   Jan28   0:04 cron
daemon     853  0.0  0.0  18884   468 ?        Ss   Jan28   0:00 atd
root       864  0.0  0.0  11284   640 ?        Ss   Jan28   2:10 /usr/sbin/irqbalance
root       890  0.0  0.0 112412  1908 ?        Ssl  Jan28   5:09 /usr/sbin/automount
root       908  0.0  0.0  28016   976 ?        Ss   Jan28   0:00 nginx: master process /usr/sbin/nginx
www-data   910  0.0  0.0  64532  3064 ?        S    Jan28   0:00  \_ nginx: worker process
root       922  0.0  0.0 169668  2584 ?        Ssl  Jan28   0:34 /usr/sbin/nscd
mail       943  0.0  0.0  11888   648 ?        S    Jan28   0:00 /usr/sbin/nullmailer-send -d
root       971  0.0  1.1 152036 46264 ?        Sl   Jan28  36:07 splunkd -p 8089 start
root       972  0.0  0.0  49180  3512 ?        Ss   Jan28   0:00  \_ splunkd -p 8089 start
root      1160  0.0  0.0  14888  1276 ?        Ss   Jan28  19:31 /usr/lib/vmware-tools/sbin64/vmware-guestd --background /var/run/vmware-guestd.pid
ntp       1214  0.0  0.0  19700  1268 ?        Ss   Jan28   1:21 /usr/sbin/ntpd -p /var/run/ntpd.pid -g -c /var/lib/ntp/ntp.conf.dhcp -u 103:107
root      1231  0.0  0.3  21164 12980 ?        SLs  Jan28   0:00 /usr/sbin/memlockd -u memlockd
scs       1270  1.2  2.3 187788 96228 ?        SNl  Jan28 537:27 /usr/bin/ruby /opt/wp/roles/scs/src/dev/scs/bin/server.rb -p 8843
root      1309  0.0  0.0   6080   656 tty1     Ss+  Jan28   0:00 /sbin/getty -8 38400 tty1
dirsvc   27448  0.1  1.2 177408 50748 ?        Sl   Feb20   8:57 narwhal master --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.19/confi
dirsvc   13003  2.5  1.2 180012 49128 ?        Sl   16:57   0:47  \_ narwhal worker[1] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13460  2.5  1.2 180108 49236 ?        Sl   17:05   0:36  \_ narwhal worker[9] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13637  2.4  1.2 180008 49096 ?        Sl   17:08   0:29  \_ narwhal worker[3] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13650  2.9  1.2 180172 49420 ?        Sl   17:08   0:35  \_ narwhal worker[11] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.
dirsvc   13701  3.1  1.2 180172 49188 ?        Sl   17:10   0:35  \_ narwhal worker[13] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.
dirsvc   13731  2.7  1.2 181556 50628 ?        Sl   17:10   0:29  \_ narwhal worker[7] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13770  2.8  1.2 179400 50352 ?        Sl   17:11   0:29  \_ narwhal worker[8] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13778  3.3  1.2 180104 49172 ?        Sl   17:11   0:34  \_ narwhal worker[5] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13826  2.6  1.2 181556 50672 ?        Sl   17:12   0:25  \_ narwhal worker[0] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13939  2.8  1.2 177948 48848 ?        Sl   17:13   0:25  \_ narwhal worker[4] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   13971  3.2  1.4 189052 58292 ?        Sl   17:13   0:28  \_ narwhal worker[12] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.
dirsvc   13982  2.5  1.2 177792 48780 ?        Sl   17:14   0:22  \_ narwhal worker[6] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   15316  3.0  1.2 180072 49128 ?        Sl   17:20   0:15  \_ narwhal worker[2] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.1
dirsvc   15381  2.0  1.2 179944 48928 ?        Sl   17:21   0:08  \_ narwhal worker[14] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.
dirsvc   15743  3.5  1.1 177624 48596 ?        Sl   17:28   0:00  \_ narwhal worker[10] --port 8862 -c /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.
dirsvc   27461  0.1  1.3 235884 54744 ?        Sl   Feb20   9:20 /opt/ruby-1.9.2/bin/ruby /opt/wp/roles/directory/src/dev/directory/vendor/bundle/ruby/1.9.1/gems/wp-directory-svc-2.1.19/gem-bin/wo
root     11068  0.0  0.0 130480  1720 ?        Sl   04:20   0:00 rsyslogd -c4
zabbix   18062  0.0  0.0   9908   728 ?        SN   11:41   0:00 /usr/sbin/zabbix_agentd
zabbix   18063  0.0  0.0   9908   756 ?        SN   11:41   0:12  \_ /usr/sbin/zabbix_agentd
zabbix   18064  0.0  0.0   9980  1044 ?        SN   11:41   0:03  \_ /usr/sbin/zabbix_agentd
zabbix   18065  0.0  0.0   9980  1044 ?        SN   11:41   0:03  \_ /usr/sbin/zabbix_agentd
zabbix   18066  0.0  0.0   9980  1044 ?        SN   11:41   0:03  \_ /usr/sbin/zabbix_agentd
zabbix   18067  0.0  0.0   9908   660 ?        SN   11:41   0:00  \_ /usr/sbin/zabbix_agentd

EDIT: Weitere Infos auf Anfrage:

$ dpkg --get-selections | grep vmware
vmware-open-vm-tools-common         install
vmware-open-vm-tools-kmod-2.6.32-32-server  install

$ cat /proc/cpuinfo
processor   : 0
vendor_id   : GenuineIntel
cpu family  : 6
model       : 44
model name  : Intel(R) Xeon(R) CPU           X5660  @ 2.80GHz
stepping    : 2
cpu MHz     : 2800.099
cache size  : 12288 KB
fpu     : yes
fpu_exception   : yes
cpuid level : 11
wp      : yes
flags       : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts mmx fxsr sse sse2 ss syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology tsc_reliable nonstop_tsc aperfmperf pni pclmulqdq ssse3 cx16 sse4_1 sse4_2 popcnt aes hypervisor lahf_lm ida arat
bogomips    : 5600.19
clflush size    : 64
cache_alignment : 64
address sizes   : 40 bits physical, 48 bits virtual
power management:

processor   : 1
vendor_id   : GenuineIntel
cpu family  : 6
model       : 44
model name  : Intel(R) Xeon(R) CPU           X5660  @ 2.80GHz
stepping    : 2
cpu MHz     : 2800.099
cache size  : 12288 KB
fpu     : yes
fpu_exception   : yes
cpuid level : 11
wp      : yes
flags       : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts mmx fxsr sse sse2 ss syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology tsc_reliable nonstop_tsc aperfmperf pni pclmulqdq ssse3 cx16 sse4_1 sse4_2 popcnt aes hypervisor lahf_lm ida arat
bogomips    : 5600.19
clflush size    : 64
cache_alignment : 64
address sizes   : 40 bits physical, 48 bits virtual
power management:

Sie haben es versäumt, irgendetwas über den zugrunde liegenden Speicher, das Verbindungsmedium, die Hardware, die Version von VMware, die Installation der VMware Tools usw. zu
erwähnen

@ewwhite hat die angeforderten Informationen hinzugefügt. (Außer ich kann nicht antworten "etc.", weil die Welt zu groß ist, um vollständig zu beschreiben. :)
Dbenhur

Drei Jahre später ist dieser Service und seine Hosting-Architektur längst vorbei, aber die rätselhafte Frage bleibt bestehen. Ich habe kürzlich dieses Papier über Linux-Scheduler-Fehler gelesen und mich gefragt, ob das Zusammenspiel dieser Fehler mit der VM-Ausführung der Schuldige gewesen sein könnte. ece.ubc.ca/~sasha/papers/eurosys16-final29.pdf
dbenhur

Da dieses Q beim Googeln auftaucht, möchte ich einen Link zu dem hervorragenden Artikel über Linux "Load Averages" von Brendan Gregg hinterlassen , der die umfassendste Beschreibung der Load Averages enthält (und auf welche Metriken Sie stattdessen achten sollten).
Nickolay

Antworten:


11

Der Lastdurchschnitt basiert auf den Prozessen, die in der Ausführungswarteschlange warten. Dies bedeutet, dass bei Prozessen, die häufig Teilzeitscheiben verwenden, ein hoher Auslastungsdurchschnitt ohne hohe CPU-Auslastung angezeigt wird.

Das beste Beispiel dafür ist Mail. Die zum Senden einer Nachricht erforderliche CPU-Zeit ist sehr begrenzt. Wenn sich jedoch Tausende von E-Mail-Nachrichten im System bewegen (insbesondere, wenn der Mail-Daemon die Verarbeitung der einzelnen Nachrichten fordert), wird die Ausführungswarteschlange sehr lang. Es ist üblich, gut funktionierende, reaktionsfähige Mail-Server mit einer durchschnittlichen Auslastung von 25, 50 bis über 100 zu sehen.

Für einen Webserver würde ich die Seitenantwortzeit als primäre Metrik verwenden, mache dir keine Sorgen über den Lastdurchschnitt. Unter modernen Schedulern hat eine durchschnittliche Auslastung von weniger als dem Doppelten der Anzahl der Kerne normalerweise keine negativen Auswirkungen. Möglicherweise möchten Sie mit der Anzahl der Kerne pro VM im Vergleich zur Gesamtzahl der VMs experimentieren. Einige Anwendungen profitieren von vielen Kernen auf einigen wenigen Computern, andere von einer kleinen Anzahl von Kernen und vielen Instanzen.


1
Vielen Dank für Ihre Antwort. Was ist eine "Bruchzeitscheibe"? Wie ich den Scheduler verstehe, wird ein Prozess einer CPU zugewiesen und läuft auf dieser CPU bis zum nächsten Scheduling-Intervall oder bis es einen blockierenden Systemaufruf ausführt, der die Ausgabe bewirkt. Es ist verwunderlich, dass meine CPU 70% der Zeit im Leerlauf ist, aber die durchschnittliche Länge meiner Ausführungswarteschlange mehr als 2 beträgt. Warum werden diese einsatzbereiten Prozesse nicht nur für den meist im Leerlauf befindlichen CPU geplant?
27.

Ich würde hinzufügen, dass dies ein Webservice ist, jedoch kein Webserver. Es verfügt über ein Ausführungsprofil, das einer Reihe ähnlicher von uns ausgeführter Dienste ähnelt: Empfangen und Deserialisieren einer Anfrage, Ausführen einer Versendung an Upstream-Dienste / Datenbanken, Berechnen eines Ergebnisses basierend auf den Antworten der Upstreams, Serialisieren einer Antwort, Zeichnen eines Protokolls Nachricht. Mittlere Anfragedauer ~ 60 ms, 90% 200 ms, 99% 500 ms +. Wir haben eine Reihe anderer Dienste mit ähnlichen Profilen, die auf vergleichbaren VM-Containern ausgeführt werden, die diese Trennung zwischen Last und CPU% nicht aufweisen.
Dbenhur

Linux geht jedoch nur so weit, eine virtuelle CPU zu terminieren, die ESX dann über seine eigenen Algorithmen für eine reale CPU terminiert. Wie ähnlich sind die vergleichbaren VMs? Sehr ähnliche CPU für unterschiedliche Belastung? Gleiche Speichernutzung?
Matt

@mindthemonkey Auf den VMs befinden sich mindestens ein paar Dutzend verschiedene Dienste. Einige haben erheblich unterschiedliche Profile, aber die meisten sehen diesem Dienst ziemlich ähnlich. 4 GB Speicher, 2 virtuelle CPUs, bescheidenes E / A (hauptsächlich Netzwerk- und Basisprotokollierung), 30-60% CPU-Auslastung in der täglichen Kurve. IO- und / oder speicherintensive Knoten (DBs, SOLR) erhalten dedizierte Hosts. Die meisten dieser anderen Service-VMs zeigen die erwartete Korrelation zwischen CPU% und Last (zumindest solange sie 100% ausschließen).
Dbenhur

@mindthemonkey Während der Gast-Scheduler nur die virtuelle CPU steuert und ESX im größeren Kontext plant, sehe ich keine wesentlichen Auswirkungen auf die CPU-Prozent- und Lastabrechnung. Beide basieren auf Stichproben, die mit einer gewissen Häufigkeit entnommen werden, und in dem Maße, in dem der Gast durch die Hypervisor-Planung vorbelastet ist, werden sowohl die Schichten beeinflusst, in denen die eigentliche Arbeit erledigt wird, als auch die Schichten, in denen der Gast seine Stichproben entnimmt.
Dbenhur

1

Wenn wir die folgenden Shell-Befehle verwenden, um den tatsächlichen Lastdurchschnitt zu überwachen, haben wir möglicherweise unterschiedliche Ansichten zu diesem Phänomen. procs_running könnte viel höher sein als wir erwartet hatten.

while true; do cat /proc/loadavg ; cat /proc/stat| grep procs; done

1

Wenn Sie ein Leistungsproblem in einer VM haben, müssen Sie sich zuerst sowohl von der Supervisor-Seite als auch von der VM an das Problem wenden. Beachten Sie auch, dass die Zeitmessung in einer VM nicht präzise ist. Dies bedeutet auch, dass die in einer VM gemessenen Statistiken möglicherweise nicht korrekt sind.

Wie lauten die CPU- und E / A-Statistiken für diese VM? Achten Sie auf den CPU-Bereitschaftszähler - er sollte unter 5% liegen. Auf welcher Version von ESX laufen Sie? Was ist Ihre Hardware-Architektur in Test und Produkt?

Auf der VM können Sie alle Bereiche von der Anwendung bis zum Kernel mit perf profilieren und die Ausgabe mit Flammengrafiken visualisieren


Vielen Dank, dass Sie sich die Zeit genommen haben, ein Problem vor fünf Jahren zu lösen. Die betreffenden Systeme und Software gehören zu einem Unternehmen, bei dem ich nicht mehr arbeite, und der VM-Stack und der betreffende Service sind dort sowieso nicht mehr in Betrieb. :) In der ursprünglichen Frage sind bereits einige CPU- und E / A-Informationen enthalten. Brendans öffentliche Arbeit und die Ausstellung über Perf- und Flammengraphen datieren diese Frage um mehr als ein Jahr nach.
Dbenhur

1
Kein Problem. Vielleicht wird es jemandem nützlich sein.
Mircea Vutcovici

0

Das klingt nicht nach einem besonders hohen Lastdurchschnitt. Wenn Sie es aufspüren möchten, iotopist es wahrscheinlich das beste Werkzeug für den Job.


iotopist langweilig, alles sagt ungefähr 0.
Dbenhur

Wenn die durchschnittliche Auslastung über der CPU-Anzahl liegt, warten mehr Prozesse auf die Ausführung als CPU-Auslastung. Ich sehe viele Intervalle über 2,0 und einige la-5s über 4 und bis zu 6,5. Dies bedeutet, dass ich häufig Prozesse habe, die für die CPU hinter anderen Prozessen ins Stocken geraten und eine unerwünschte Latenz wegen mangelnder CPU-Kapazität implizieren. Normalerweise erwarte ich, dass der durchschnittliche Auslastungsgrad und die CPU-Prozent korrelieren, bis sich das System der 100-prozentigen CPU-Sättigung nähert. Nach diesem Lastdurchschnitt ist das bessere Signal, da es anzeigt, wie überlastet das System ist, und nicht nur, dass es zu 100% ausgelastet ist.
Dbenhur

0

Ich habe es mit einem ähnlichen Szenario zu tun gehabt. In meinem Fall ist der Lastdurchschnitt gesunken, nachdem der E / A-Scheduler des Blockgeräts der problematischen VM in den NOOP-Scheduler geändert wurde. Dieser Scheduler ist nur eine FIFO-Warteschlange, was gut funktioniert, wenn der Hypervisor ohnehin seine eigenen IO-Scheduling-Algorithmen anwendet. Sie müssen nicht zweimal nachbestellen.

Trotzdem habe ich es immer noch mit trägen Tastaturereignissen auf der problematischen VM zu tun, und ich denke, ich habe nur den Durchschnittswert für hohe Lasten entfernt, ohne das eigentliche Problem zu lösen. Ich werde diese Antwort auf jeden Fall aktualisieren, wenn ich die Ursache finde.

Liste der verfügbaren Scheduler (und [Scheduler], die verwendet werden):

cat /sys/block/sdX/queue/scheduler
noop anticipatory deadline [cfq]

Ändern Sie es mit:

echo noop > /sys/block/sdX/queue/scheduler

Um es dauerhaft zu machen, müssen elevator=noopSie die Kernel-Boot-Parameter Ihrer VM hinzufügen .


-2

Der Lastdurchschnitt ist die Anzahl der ausführbaren Prozesse, die auf die CPU warten. Ein Prozess, der auf E / A wartet, zählt überhaupt nicht. Die "übliche Erklärung" ist einfach absolut falsch.


3
Linux bezieht Prozesse im nicht interpretierbaren Ruhezustand in seine Lastberechnung ein. Solche Prozesse werden mit Status 'D' in den üblichen Prozessinspektionswerkzeugen angezeigt. Dieser Status wird normalerweise von Gerätetreibern verwendet, die auf Festplatten- oder Netzwerk-E / A warten. Diese "übliche Erklärung" gilt für Linux, aber nicht für die meisten anderen Unixe.
Dbenhur

1
s / uninterpretable / uninterruptible /
Dbenhur

1
Ein früherer Kommentar bezog sich auf eine Performance-Arbeit von Brendan Gregg, die mich daran erinnerte, dass er kürzlich auch eine wunderbare Archäologie darüber erstellte, wie der unterbrechungsfreie Schlaf im
Lastdurchschnitt von
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.