Ich habe einen Server mit vielen kleinen Dateien - viele Millionen Dateien und über 1,5 TB Daten. Ich brauche eine anständige Backup-Strategie.
Jede dateisystembasierte Sicherung dauert zu lange - nur die Aufzählung der zu kopierenden Dateien dauert einen Tag.
Acronis kann innerhalb von 24 Stunden ein Disk-Image erstellen, schlägt jedoch fehl, wenn am nächsten Tag versucht wird, eine differenzielle Sicherung durchzuführen.
DFS-R repliziert kein Volume mit so vielen Dateien.
Ich beginne mit Double Take, das anscheinend in der Lage ist, eine kontinuierliche Replikation durchzuführen. Gibt es andere Lösungen, die eine kontinuierliche Replikation auf Block- oder Sektorebene durchführen können - nicht Datei für Datei über ein WAN?
Ein paar Details:
Die Dateien sind in ca. 75.000 Verzeichnisse aufgeteilt.
99% der täglichen Änderungen stammen aus dem Hinzufügen neuer Verzeichnisse. Bestehende Dateien werden selten geändert.
Es gibt einige andere relevante Diskussion hier .