Wenn Sie den Gitlab-Support fragen, wie ein 3-TB-Backup für ein lokales Gitlab erstellt werden soll, verwenden Sie unser Tool , das einen Tarball erstellt.
Das scheint mir auf allen Ebenen falsch zu sein. Dieser Tarball enthält den Postgres-Dump, Docker-Images, Repo-Daten, GIT-LFS usw. Config und so weiter. Das Sichern von TB statischer Daten zusammen mit KB sehr dynamischen Daten funktioniert nicht richtig. Und dann kommt die Frage: Wir wollen jede Stunde ein Backup machen.
Frage
Ich würde wirklich gerne von anderen erfahren, wie sie es machen, um ein konsistentes Backup zu erhalten.
ZFS unter Linux wäre in Ordnung für mich, wenn das Teil der Lösung ist.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
Ich kann jedoch nicht aus Erfahrung sprechen. Aber ich muss vielleicht bald so etwas