Soweit mir bekannt ist, verwenden die meisten Implementierungen der Erzeugung von Pseudozufallszahlen in der Praxis Methoden wie Linear Shift Feedback Register (LSFRs) oder diese "Mersenne Twister" -Algorithmen. Obwohl sie viele (heuristische) statistische Tests bestehen, gibt es keine theoretischen Garantien dafür, dass sie beispielsweise bei allen effizient berechenbaren statistischen Tests pseudozufällig aussehen. Diese Methoden werden jedoch unterschiedslos in allen Arten von Anwendungen eingesetzt, von kryptografischen Protokollen über wissenschaftliches Rechnen bis hin zu Bankgeschäften (wahrscheinlich). Ich finde es etwas besorgniserregend, dass wir kaum oder gar keine Garantie dafür haben, ob diese Anwendungen wie beabsichtigt funktionieren (da jede Art von Analyse wahrscheinlich echte Zufälligkeit als Eingabe angenommen hätte).
Auf der anderen Seite bieten Komplexitätstheorie und Kryptographie eine sehr reiche Theorie der Pseudozufälligkeit, und wir haben sogar Kandidatenkonstruktionen von Pseudozufallsgeneratoren, die JEDEN effizienten statistischen Test täuschen würden, den Sie sich unter Verwendung von Einwegkandidatenfunktionen ausdenken könnten.
Meine Frage ist: Hat diese Theorie ihren Weg in die Praxis gefunden? Ich hoffe, dass für wichtige Zwecke der Zufälligkeit, wie Kryptographie oder wissenschaftliches Rechnen, theoretisch fundierte PRGs verwendet werden.
Abgesehen davon konnte ich eine eingeschränkte Analyse finden, wie gut populäre Algorithmen wie QuickSort funktionieren, wenn LSFRs als Zufallsquelle verwendet werden, und anscheinend funktionieren sie gut. Siehe Karloff und Raghavan "Randomisierte Algorithmen und Pseudozufallszahlen" .