Ich mache das Setup für eine große Speicherfarm und um die Notwendigkeit monatelanger Fscks zu vermeiden, ist mein Plan, den Speicher in zahlreiche kleinere Dateisysteme aufzuteilen (dies ist in Ordnung, da ich einen gut ausgebauten Dateibaum habe , so dass ich leicht getrennte Dateisysteme montiert haben 1/
, 2/
, 3/
, 4/
, etc.).
Meine Schwierigkeit besteht darin, eine Aufzählung der "vernünftigen" Größe eines Dateisystems zu finden, um die fsck-Zeiten ähnlich "vernünftig" zu halten. Obwohl ich mir völlig bewusst bin, dass die absolute Zeit für eine bestimmte Größe weitgehend von der Hardware abhängt, kann ich anscheinend keine Beschreibung der Kurvenform für ext3-fsck-Zeiten mit unterschiedlichen Dateisystemgrößen und der anderen Variablen finden ( Dauert ein Dateisystem voller Dateien in einem einzelnen Verzeichnis länger als eines mit 10 Dateien in jeweils Tausenden von Verzeichnissen in einem Baum, große Dateien gegen kleine Dateien, volles Dateisystem gegen leeres Dateisystem usw.).
Hat jemand Hinweise auf gut recherchierte Zahlen dazu? Andernfalls sollten Anekdoten zu diesen Themen zumindest dazu beitragen, meine eigenen Experimente zu leiten, falls dies erforderlich sein sollte.
BEARBEITEN : Zur Verdeutlichung: Unabhängig vom Dateisystem muss überprüft werden, ob bei den Metadaten ein Fehler auftritt. Ob zeit- oder mountbasierte Re-Fscks aktiviert sind oder benötigt werden, steht nicht zur Debatte. Der einzige Grund, warum ich nach Zahlen speziell für ext3 frage, ist, dass dies das wahrscheinlichste zu wählende Dateisystem ist. Wenn Sie ein Dateisystem kennen, das einen besonders schnellen fsck-Prozess hat, bin ich offen für Vorschläge, aber es muss eine robuste Option sein (behauptet, dass "Dateisystem X braucht nie fscking!" Lachend und verspottet wird). . Ich bin mir auch der Notwendigkeit von Backups bewusst, und der Wunsch nach fsck ist kein Ersatz für Backups. Es scheint jedoch wirklich, das Dateisystem zu verwerfen und aus dem Backup wiederherzustellen, wenn es fehlerhaft ist, anstatt es zu fscken.