Ich habe ein Paar identischer Server mit RAID-Arrays (8 Kerne, 16 GB RAM, 12 x 2 TB RAID6) und 3 10GigE-Schnittstellen eingerichtet, um einige hochverfügbare Dienste zu hosten.
Auf den Systemen läuft derzeit Debian 7.9 Wheezy oldstable (da Corosync / Schrittmacher unter 8.x nicht verfügbar sind und auch nicht getestet werden).
- Die Leistung der lokalen Festplatte beträgt etwa 900 MB / s beim Schreiben und 1600 MB / s beim Lesen.
- Der Netzwerkdurchsatz zwischen den Computern beträgt über 700 MB / s.
- Über iSCSI kann jeder Computer mit mehr als 700 MB / s in den Speicher des anderen Computers schreiben.
Unabhängig davon, wie ich DRBD konfiguriere, ist der Durchsatz jedoch auf 100 MB / s begrenzt. Es sieht wirklich nach einer fest programmierten Grenze aus. Ich kann die Leistung zuverlässig verringern, indem ich die Einstellungen ändere, aber es geht nie über 1 GBit (122 MB / s werden jeweils für ein paar Sekunden erreicht). Ich ziehe mir wirklich die Haare.
- einfacher Vanillekern 3.18.24 amd64
- drbd 8.9.2 ~ rc1-1 ~ bpo70 + 1
Die Konfiguration ist in zwei Dateien aufgeteilt global-common.conf
:
global {
usage-count no;
}
common {
handlers {
}
startup {
}
disk {
on-io-error detach;
# no-disk-flushes ;
}
net {
max-epoch-size 8192;
max-buffers 8192;
sndbuf-size 2097152;
}
syncer {
rate 4194304k;
al-extents 6433;
}
}
und cluster.res
:
resource rd0 {
protocol C;
on cl1 {
device /dev/drbd0;
disk /dev/sda4;
address 192.168.42.1:7788;
meta-disk internal;
}
on cl2 {
device /dev/drbd0;
disk /dev/sda4;
address 192.168.42.2:7788;
meta-disk internal;
}
}
Ausgabe von cat /proc/drbd
am Slave:
version: 8.4.5 (api:1/proto:86-101)
srcversion: EDE19BAA3D4D4A0BEFD8CDE
0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
ns:0 nr:4462592 dw:4462592 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:16489499884
[>....................] sync'ed: 0.1% (16103024/16107384)M
finish: 49:20:03 speed: 92,828 (92,968) want: 102,400 K/sec
Ausgabe vom vmstat 2
Master (beide Maschinen sind fast vollständig inaktiv):
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
r b swpd free buff cache si so bi bo in cs us sy id wa
0 0 0 14952768 108712 446108 0 0 213 254 16 9 0 0 100 0
0 0 0 14952484 108712 446136 0 0 0 4 10063 1361 0 0 99 0
0 0 0 14952608 108712 446136 0 0 0 4 10057 1356 0 0 99 0
0 0 0 14952608 108720 446128 0 0 0 10 10063 1352 0 1 99 0
0 0 0 14951616 108720 446136 0 0 0 6 10175 1417 0 1 99 0
0 0 0 14951748 108720 446136 0 0 0 4 10172 1426 0 1 99 0
Ausgabe iperf
zwischen den beiden Servern:
------------------------------------------------------------
Client connecting to cl2, TCP port 5001
TCP window size: 325 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.42.1 port 47900 connected with 192.168.42.2 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 6.87 GBytes 5.90 Gbits/sec
Anscheinend soll die anfängliche Synchronisation etwas langsam sein, aber nicht so langsam ... Außerdem reagiert sie nicht wirklich auf den Versuch, die Synchronisationsrate zu drosseln drbdadm disk-options --resync-rate=800M all
.