Ich archiviere Daten von einem Server auf einen anderen. Anfangs habe ich einen rsync
Job angefangen . Es dauerte 2 Wochen, bis die Dateiliste nur für 5 TB Daten erstellt wurde, und eine weitere Woche, bis 1 TB Daten übertragen wurden.
Dann musste ich den Job beenden, da wir einige Ausfallzeiten auf dem neuen Server benötigen.
Es wurde vereinbart, dass wir es tarieren werden, da wir wahrscheinlich nicht mehr darauf zugreifen müssen. Ich dachte daran, es in 500-GB-Blöcke aufzuteilen. Nachdem ich tar
es dann gemacht hatte, wollte ich es durchschreiben ssh
. Ich habe verwendet tar
und pigz
aber es ist immer noch zu langsam.
Gibt es einen besseren Weg, es zu tun? Ich denke, beide Server sind auf Redhat. Der alte Server ist Ext4 und der neue ist XFS.
Die Dateigrößen reichen von wenigen KB bis zu wenigen MB und es gibt 24 Millionen JPEGs in 5 TB. Ich schätze also auf etwa 60-80 Millionen für 15 TB.
edit: Nach ein paar Tagen mit rsync, nc, tar, mbuffer und pigz spielen. Der Engpass wird der Platten-E / A sein. Da die Daten auf 500 SAS-Festplatten und rund 250 Millionen JPEGs verteilt sind. Jetzt lernte ich all diese netten Tools, die ich in Zukunft verwenden kann.