Ich habe große statische Inhalte, die ich über einen Linux-basierten Webserver bereitstellen muss. Es handelt sich um einen Satz von über einer Million kleinen GZIP-Dateien. 90% der Dateien sind kleiner als 1 KB und die restlichen Dateien sind höchstens 50 KB groß. In Zukunft könnte dies auf über 10 Millionen gzip-Dateien anwachsen.
Sollte ich diesen Inhalt in eine Dateistruktur einfügen oder sollte ich in Betracht ziehen, all diesen Inhalt in eine Datenbank aufzunehmen? Wenn es sich um eine Dateistruktur handelt, kann ich große Verzeichnisse verwenden oder sollte ich kleinere Verzeichnisse in Betracht ziehen?
Mir wurde gesagt, dass eine Dateistruktur für die Zustellung schneller sein würde, aber auf der anderen Seite weiß ich, dass die Dateien viel Speicherplatz auf der Festplatte beanspruchen, da Dateiblöcke mehr als 1 KB groß sind.
Was ist die beste Strategie hinsichtlich der Lieferleistung?
AKTUALISIEREN
Für die Aufzeichnungen habe ich einen Test unter Windows 7 mit einer halben Million Dateien durchgeführt: