Wie kann ich mein System auf einem Remote-Server (AFP-, Samba- oder NFS-Freigabe) sichern?


11

Hier ist das Ziel: Ich habe einen Backup-Server mit einem ZFS-Dateisystem mit integrierter Komprimierung und Snapshots. Alle unsere Maschinen sichern dort rsyncjede Nacht mit , und dann wird ein ZFS-Snapshot erstellt, sodass wir Sicherungen darüber haben, wie jede Maschine am Ende eines jeden Tages aussah.

Das Problem ist, dass unter Mac OS X die Ressourcengabeln nicht kopiert werden, da der Remotecomputer keine Ressourcengabeln unterstützt. Was ich tun möchte, ist rsynceine DMG-Datei, die sich auf dem Sicherungsserver befindet. Auf diese Weise hätte ich ein genaues, bootfähiges Bild davon, wie mein System jede Nacht aussah.

Als Bonus ist der Sicherungsserver auch ein NetBoot-Server, sodass ich zu jedem Zeitpunkt in der Geschichte von meinem Mac booten kann.

Ich habe ein Image des Laufwerks meines Mac erstellt und es auf den Sicherungsserver kopiert. Wenn ich es jetzt auf meinem Mac öffne und ausführe rsync, läuft es eine Zeit lang (manchmal mehr als eine Stunde, manchmal weniger) und gibt mir dann eine Menge E / A-Fehler. Das Image wird auf einem RAID-Array gespeichert. Ich bin sicher, dass keine E / A-Fehler vorliegen.

Ich denke, die Verbindung mit der Samba-Freigabe wird möglicherweise überfordert. Ich habe es auch mit AFP versucht und erhalte das gleiche Ergebnis. Was könnte dies verursachen und wie kann ich es beheben? Oder andere Ideen, wie ich die entfernte DMG-Datei aktualisieren kann?


3
Anstatt TimeMachine mit Open Source / Unixy-Tools (die ich liebe und liebe) neu zu erfinden, haben Sie darüber nachgedacht, die kostenlose CrashPlan-Software auf beiden Computern auszuführen? Sie verschenken Software, die sehr fortschrittlich ist und gut unterstützt wird, wenn Sie Hilfe von ihnen benötigen.
bmike

Hmmm, das muss ich mir ansehen! Der Grund, warum ich TimeMachine "erneut einlade", ist, dass TimeMachine für jeden Computer ein großes USB-Laufwerk benötigt. In unserem Setup haben wir das nicht, sondern ein umfangreiches Backup-RAID vor Ort.
Josh

Ich verstehe deine Gründe total. ZFS ist großartig und die Wiederverwendung vorhandener Infrastrukturen ist sehr sinnvoll. Für mehrere Clients mit 10 bis 30 Macs war der Sweet Spot ein Mac Mini-Server, der ein Laufwerk für alle Mac-Clients für Time Machine gemeinsam nutzt. Dieser Server verfügt über einen Absturzplan zum Hauptserver für Band- / Offsite-Rotationen (und die Sparsebundles kapseln HFS und Metadaten). DeployStudio verwaltet die bootfähigen Images und Netzwiederherstellungen. Viel Glück und lassen Sie uns wissen, wie es geht.
bmike

Ein weiterer +1 zu @ bmikes CrashPlan-Vorschlag. Verwendet Hadoop unter der Haube und kann inkrementelle Schritte wie TimeMachine ausführen. Sie können Backups kostenlos auf ein anderes Laufwerk oder einen anderen Computer übertragen. Die Benutzeroberfläche ist allerdings nicht so schön wie TimeMachine.
Ian C.

+1 für Absturzplan. Es ist eine großartige kostenlose Software und hat den zusätzlichen Vorteil, dass Sie problemlos weitere Sicherungspunkte hinzufügen können - einschließlich ihrer eigenen Server gegen eine Gebühr.
Cregox

Antworten:


5

Richten Sie ein neues Volume auf Ihrer Nexenta / OS-Box für Ihre Sicherung ein und stellen Sie es so ein, dass es als iSCSI-LUN freigegeben wird. Verwenden Sie dann einen von mehreren iSCSI- Initiatoren für MacOS X, um das Sicherungsvolume auf Ihrer Rückseite anzuhängen. Formatieren Sie das Volume auf Ihrem Mac als HFS +. Jetzt können Sie CCC oder rsync usw. verwenden, um Ihre Backups durchzuführen.


2
Das ist eine fantastische Idee. Ich werde es versuchen, nachdem ich die Arbeit für den Tag beendet habe!
Josh

1
+1 - Ich habe mir überlegt, wie ich mit iSCSI dorthin gelangen und die mac-spezifischen Daten kapseln kann. Je weniger Schritte, desto besser.
bmike

Bah! Gerade als ich tippte, dass dies großartig funktioniert, wurde die Verbindung unterbrochen. Aber ich habe immer noch Hoffnung auf diese Lösung ...
Josh

@ Josh: Weißt du, warum die Verbindung unterbrochen wurde (physischer Stecker usw.)? Haben Sie auch eine separate Netzwerkkarte für Ihre iSCSI-Verbindung?
Tegbains

Ich weiß nicht, warum die Verbindung unterbrochen wird, aber da dies jetzt bei allen Protokollen, AFP, CIFS, NFS und iSCSI, der Fall ist, liegt ein Problem mit dem Server vor. Ich denke, die Datenübertragung überfordert die virtuelle Maschine nur und reagiert nicht mehr ... aber ich werde eine andere Frage stellen, wahrscheinlich zum Austausch von Unix- und Linux-Stacks.
Josh

3

Haben Sie sich mit Carbon Copy Cloner befasst ? Ich verwende dies für eine manuelle Bit-für-Bit-Sicherung meiner SSD auf einem Netzwerklaufwerk etwa einmal im Monat und es funktioniert einwandfrei. Ich weiß, dass inkrementelle Sicherungen durchgeführt werden, und ich hatte keine Probleme, mein Laufwerk über Gigabit-Ethernet zu sichern.


Wenn ich CCC für eine inkrementelle Sicherung verwende, wird es leider nur ausgeführt rsyncund ich erhalte das gleiche Ergebnis :-(
Josh

Was hostet das Netzwerklaufwerk, wenn Sie Ihr Laufwerk auf das Netzwerklaufwerk übertragen? OS X? Linux? Wie verbindest du dich? Samba? AFP? Verwenden Sie CCC direkt zum Netzlaufwerk oder gehen Sie zu einer DMG auf dem Netzlaufwerk?
Josh

@ Josh: Sie könnten CCC auf das gemountete Disk Image
Tegbains

Das habe ich getan - und CCC lief rsyncund ich bekam die gleichen E / A-Fehler :-(
Josh

2

Nicht die genaue Antwort auf Ihre Frage, aber Sie können auch Ressourcengabeln rsync. Hier sind wirklich schöne Artikel über:

ps: benutzt du solaris oder freebsd?

Also, was ich jetzt versucht habe:

Ich habe ein Remote-Betriebssystem (nicht Mac) und habe es über Fuse / SSHFS (über die langsame ADSL) gemountet.

sshfs user@example.com:/path/to/dir /Users/me/Mount/myfs -oauto_cache,reconnect,volname=MyFs

Auf meinem MacBook gab dies Folgendes ein:

/usr/bin/rsync -avE /Users/me/tmp/bk /Users/me/Mount/myfs/tmp/test

(Der / tmp / test ist bereits auf dem Remotecomputer vorhanden.)

und bekam das:

building file list ... done
bk/
._bk
bk/.DS_Store
bk/._.DS_Store
bk/Icon\#015
bk/._Icon\#015
bk/test.rtfd/
bk/test.rtfd/.LSOverride
bk/test.rtfd/TXT.rtf

sent 311127 bytes  received 186 bytes  15186.00 bytes/sec
total size is 6874  speedup is 0.02

Wie Sie sehen können, werden Ressourcengabeln in dot_underscore-Dateien konvertiert und an einen entfernten Speicherort kopiert. (Zum Beispiel auch das benutzerdefinierte Symbol für das Verzeichnis bk).

Daher verstehe ich nicht, warum Sie nicht in Remote-ZFS rsync können?


1
Egal was ich versucht habe, ich kann rsync nicht dazu bringen, die Ressourcengabeln zu kopieren. Ich denke, weil das ZFS-System sie nicht unterstützt ... Ich bin nicht sicher. Ich habe es zuerst mit einem Debian-kBSD-Server versucht, bin aber zu Nexenta (OpenSolaris-Kernel + Debian-Kern) gewechselt, da es NFS- und Netatalk-Unterstützung bietet.
Josh

Und der 3. Link? (die eine OS / FS-unabhängige Lösung zeigen)
jm666

1
Das interessiert mich wirklich. Hier ist ein weiterer Link für zfs + timemachine. blogs.oracle.com/constantin/entry/zfs_and_mac_os_x
jm666

Ah, ich verstehe, Sie mounten das Verzeichnis und arbeiten rsynclokal! Ich habe versucht, vom Mac auf den Server zu synchronisieren! Ich werde es versuchen und mich bei Ihnen melden.
Josh

0

Ich weiß nicht warum , aber die Verbindung zum Server wurde während der Dateikopie unterbrochen, und ich gehe davon aus, dass die hohe Datenmenge, die mit so hoher Geschwindigkeit übertragen wurde, höher war, als der Sicherungsserver verarbeiten konnte. Es würde für kurze Zeit nicht mehr reagieren und der Mac würde die DMG zwangsweise trennen und die Sicherung würde fehlschlagen.

Ich habe eine Lösung gefunden: Vor dem Sichern habe ich in den Systemeinstellungen die Geschwindigkeit meiner Ethernet-Netzwerkkarte von 1000 Mbit / s auf 100 Mbit / s gesenkt. Dann schien die Sicherung einwandfrei zu funktionieren, da die Datenrate eingeschränkt war und der Sicherungsserver nicht überfordert wurde.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.