Ich richte gerade einen Dateiserver ein und bin an dem Punkt angelangt, an dem die Datenlaufwerke tatsächlich eingerichtet werden. Das System verfügt über 4 Laufwerke (eine Betriebssystemfestplatte, 3 Datenfestplatten). Die Betriebssystemfestplatte ist als ext4 formatiert und wird nicht zum ZFS-Pool hinzugefügt (wenn ich ZFS ausführen möchte). Mein Hauptanliegen ist die Datenintegrität und das minimale Risiko eines Datenverlusts (das Zwischenspeichern von Laufwerken ist im BIOS deaktiviert). Dafür scheint ZFS der perfekte Kandidat zu sein, da es eine stabile Version für Linux hat (richtig?) Und Datenvervielfältigung, Pooling und RAIDZ unterstützt, bei denen die Festplatten nicht die gleiche Größe haben müssen.
Aber hier ist mein Problem. Der Server verfügt nur über 2 GB RAM und kann in naher Zukunft nicht aktualisiert werden. Realistisch gesehen sind nur 1,5 für ZFS verfügbar, nachdem ich alle anderen Dienste installiert habe. Maximal 10 Clients verwenden es gleichzeitig (durchschnittlich eher 4). Ist das zu niedrig, um als sicher angesehen zu werden?
Soweit ich weiß, kann ZFS in Situationen mit wenig RAM abstürzen und den Pool mitnehmen. Ich habe widersprüchliche Meinungen darüber gehört, ob Swap zur Linderung dieses Problems beiträgt (ich habe ein 20-GB-Swap-Laufwerk). Hat jemand Datenverlust mit ZFS mit wenig RAM erlebt und welche Optimierungen haben Sie vorgenommen, um dies zu verhindern?
In Anbetracht der obigen Ausführungen wäre es möglich, ZFS weiterhin auszuführen, obwohl die Ack-Größe reduziert und etwas reduziert wird, oder ist dies zu riskant?
Systemspezifikationen: 2 GB RAM 20 GB Swap-Laufwerk-Betriebssystem, Debian 7, minimale Installation, mit FTP und XBMC, DNLA (um eine Vorstellung von der RAM-Anforderung zu geben). Wird für das Streamen von Speicherservern und Musikmedien auf andere Geräte verwendet.