Ich schreibe Testfälle für ein Hochleistungs-Datenkomprimierungssystem. (Nun, nicht genau, aber zu Testzwecken kann es so beschrieben werden)
Für den Test muss ich 500 GB ~ 3 TB zufällige Dateien in einem Verzeichnis generieren.
Im Moment benutze ich /dev/urandom
Aber das hat das Problem, zufällig zu sein.
Nichts garantiert, dass ich nicht mehrere Dateien mit Nullen auf einmal bekomme, und eine Änderung des Algorithmus, die sich negativ auf die Effizienz auswirken sollte, wird als hocheffizient angezeigt.
Gibt es eine Möglichkeit, diese Menge zufälliger Daten zu generieren, ohne diese dauerhaft speichern zu müssen und vorhersehbar zu sein?
So etwas wie: Eine Funktion festlegen, Daten generieren, Daten überprüfen, den Startwert festlegen, darauf vertrauen, dass Sie jedes Mal dieselben generierten Daten erhalten.
Ich weiß, kann Urandom säen, aber es funktioniert nicht, jedes Mal die gleichen Daten zu generieren, wie ich es mir erhofft hatte.
Gibt es etwas Ähnliches mit der Bequemlichkeit unter UNIX, die / dev / urandom bietet?