Nehmen wir an, ich habe ein paar tausend große Dateien (jeweils 1-800 MB), auf die alle nach dem Zufallsprinzip zugegriffen wird, wobei auf neu hochgeladene Dateien sehr häufig zugegriffen wird. Mit der Zeit fallen die Zugriffszeiten umgekehrt quadratisch ab, aber dort Möglicherweise handelt es sich um zufällige Spitzen bei der Verwendung älterer Dateien.
Der Gesamtdurchsatz liegt im Bereich von 2 bis 4 Gbit.
Ich bin auf der Suche nach einer selbst gehosteten Lösung, nicht nach den Amazon-Angeboten, da diese viel zu teuer sind.
Was ich grob im Sinn hatte, ist Folgendes:
Teurer "Hauptserver" mit mehreren SAS-Laufwerken (oder SSDs) mit 15.000 U / min, auf denen neue Dateien gehostet werden, die gerade auf die Site hochgeladen wurden. Sobald die Download-Rate sinkt (oder die Datei ein bestimmtes Alter erreicht), wird sie auf einen der billigeren Archivknoten verschoben.
BEARBEITEN: Dateien sollen über HTTP an eine Vielzahl von Benutzern geliefert werden. Auf den Servern wird FC5 ausgeführt. Benötigen Sie meistens Lesezugriff, aber Schreiben ist auch wichtig.
Im Moment habe ich ein einfaches 2-Server-Setup mit maximal einem Gbit und ich werde verrückt nach E / A. Die Box ist mit 4K-Blöcken formatiert. Würde eine Erhöhung auf 1024K einen enormen Einfluss haben?