Sehr großer Cache der Duplizität


8

Ich verwende derzeit ein Duplizitätsskript, um meinen 110G / 2T CentOS-Server auf einem 2T-SFTP-Server zu sichern.

Da 4 Tage vergangen sind, hat die Duplizität nur 90G gesichert. Das ist kein Problem. Das Hauptproblem ist; Ich habe fast 600G Cache, den die Duplizität unter "/user/.cache/duplicity" generiert hat. Diese Größe ist nicht normal. Was soll ich also tun? Wird die Duplizität diese Cache-Dateien und -Ordner verkleinern oder entfernen, wenn die Aufgabe abgeschlossen ist? Wird Duplicity auch den Cache sichern (ich habe den Ordner / user nicht ausgeschlossen)?

Zusätzliche Informationen: Ich verwende den Hetzner-Server und dies ist das Sicherungsskript, das ich verwende: https://wiki.hetzner.de/index.php/Duplicity_Script/en

Außerdem habe ich nur die Verzeichnisse proc, sys und dev aus dem Stammverzeichnis ausgeschlossen (und alles andere ausgehend vom Stammverzeichnis gesichert, weil ich eine vollständige Serversicherung wollte).


Ich habe das schon mal gesehen. Ich habe noch nie eine Lösung gesehen. Der Cache kann jedoch sicher gelöscht werden, solange keine Duplizität ausgeführt wird.
Michael Hampton

Der lokale Cache kann sicher gelöscht werden. Wird aber, soweit ich weiß, erneut heruntergeladen.
user18099

Antworten:


7

Laut Mailingliste

Sie müssen es manuell ausschließen.

Es enthält die Indexdateien Ihrer Sicherungsketten (Inhaltsverzeichnis des Sicherungsrepositorys). Durch das lokale Zwischenspeichern werden Optionen wie Status und inkrementelle Sicherung und andere beschleunigt. Diese Vorgänge müssen wissen, was bereits für die Arbeit gesichert wurde. Wenn sie zwischengespeichert sind, müssen sie nicht jedes Mal übertragen und entschlüsselt werden.

.. ede

Im Übrigen scheint es ein langjähriger Fehler zu sein .

Auf dem Debian-Bug-Tracker empfehlen sie dies

duplicity cleanup --extra-clean --force ....

Warnung : Die vorgeschlagene --extra-cleanOption ist gefährlich und kann Sie sehr hart beißen. Backups können mit den üblichen Mitteln nicht wiederhergestellt werden .


1
Vielen Dank für Ihre Antwort, daher muss ich diese Ordner ausschließen. Was ich jetzt fragen muss, ist dieser Befehl, den Sie mir gegeben haben "Duplicity Cleanup --extra-clean --force ....". Muss ich dies nach dem Ende des Sicherungsvorgangs oder jedes Mal verwenden, wenn ich es benötige?
Bahadir Tasdemir

1
Zu dieser Empfehlung: Sie sollten SEHR sicher sein, dass Backups älter als die derzeit aktive Backup-Kette sind (1 Woche?). Vor dem Löschen von Metadaten mit --extra-clean. Sie benötigen diese alten Metadaten für die Wiederherstellung alter Sicherungen.
user18099

0

Als wir anfingen, sehr alte Backups remote zu bereinigen (S3), lösten Duply-Befehle sehr alte lokale Metadaten automatisch.

Das heißt, wir speichern Backups erst seit x Monaten. Die Größe des lokalen Metadaten-Cache wurde entsprechend verringert.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.