Langzeitleser, erstmaliger Fragesteller:
Ich bin ein Linux-Administrator auf Junior-Ebene, der zunehmend sehr große Datenmengen / Speicher im lokalen und NFS-Speicher unterstützt. Die Daten liegen im Allgemeinen in Form von massiven Ordner- und Dateibäumen mit beliebigen Namen vor. Um ein Beispiel für die Herausforderung zu geben, arbeite ich mit Partitionen mit mehr als 20 TB, die Hunderttausende verschachtelter Verzeichnisse und Zehntausende Millionen Dateien enthalten.
Da es sich bei diesen Partitionen / Exporten um gemeinsam genutzte Ressourcen handelt, muss ich im Allgemeinen Detektiv spielen, wenn ihnen der Speicherplatz oder die Inodes ausgehen, um festzustellen, welche Ordner die größten Straftäter sind.
Ich stelle fest, dass 'du -s' viel zu langsam und manuell ist, um die Arbeit zu erledigen, und hoffte zu sehen, welche Tricks andere Leute verwenden, um die größten oder zahlreichsten Dateizahlverzeichnisse unter sehr großen Partitionen zu bestimmen.
Das einzige Betriebssystem, mit dem ich diese Suchvorgänge durchführen möchte, ist RHEL 5/6. Daher ist jede Mischung aus Standard-CLI-Linux-Tools in Ordnung.
Vielen Dank!