Ich nehme ziemlich spät an der Diskussion teil, werde aber versuchen, einige Fragen zu beantworten, die zuvor gestellt wurden.
Zunächst ist es, wie von Aaron Sterling festgestellt, wichtig, zunächst zu entscheiden, was wir unter "wirklich zufälligen" Zahlen verstehen, und zwar insbesondere dann, wenn wir die Dinge unter dem Gesichtspunkt der Komplexität der Berechnungen oder der Berechenbarkeit betrachten.
Lassen Sie mich jedoch argumentieren , dass in der Komplexitätstheorie, die Menschen vor allem interessiert sind Pseudo -randomness und Pseudo -random Generatoren, dh Funktionen von Strings in Strings , so dass die Verteilung der Ausgangssequenzen kann nicht abgesehen von der gleichmäßigen Verteilung erzählt wird durch ein effizientes Verfahren (wo mehrere Bedeutungen von effizient in Betracht gezogen werden können, z. B. Polyzeit berechenbare, polynomgroße Schaltungen usw.). Es ist ein wunderschönes und sehr aktives Forschungsgebiet, aber ich denke, die meisten Leute würden zustimmen, dass die Objekte, die es untersucht, nicht wirklich zufällig sind, es ist genug, dass sie nur zufällig aussehen (daher der Begriff "Pseudo").
In der Berechenbarkeitstheorie hat sich ein Konsens zu einem guten Begriff der "wahren Zufälligkeit" herauskristallisiert, und es hat sich tatsächlich der Begriff der Martin-Löf-Zufälligkeit durchgesetzt (andere wurden vorgeschlagen und sind interessant zu studieren, aber nicht alle die netten Eigenschaften, die Martin-Löf zufällig hat). Zur Vereinfachung betrachten wir die Zufälligkeit für unendliche binäre Sequenzen (andere Objekte wie Funktionen von Zeichenfolgen zu Zeichenfolgen können mit einer solchen Sequenz leicht codiert werden).
α
1 / 20α
kwk,0wk,1Ukwk,i2−kG=⋂kUk0α
Diese Definition mag technisch erscheinen, wird jedoch aus mehreren Gründen allgemein als die richtige angesehen:
- es ist effektiv genug, dh seine Definition beinhaltet berechenbare Prozesse
- Es ist stark genug: Jede "fast sichere" Eigenschaft, die Sie in einem Wahrscheinlichkeitstheorie-Lehrbuch finden (Gesetz der großen Zahlen, Gesetz des iterierten Logarithmus usw.), kann durch einen Martin-Löf-Test getestet werden (obwohl dies manchmal schwer zu beweisen ist).
- Es wurde unabhängig von mehreren Personen unter Verwendung unterschiedlicher Definitionen vorgeschlagen (insbesondere die Levin-Chaitin-Definition unter Verwendung der Kolmogorov-Komplexität). und die Tatsache, dass sie alle zu demselben Konzept führen, ist ein Hinweis darauf, dass es der richtige Begriff sein sollte (ein bisschen wie der Begriff der berechenbaren Funktion, der über Turing-Maschinen, rekursive Funktionen, Lambda-Kalkül usw. definiert werden kann).
- Die mathematische Theorie dahinter ist sehr schön! Siehe die drei ausgezeichneten Bücher Eine Einführung in die Kolmogorov-Komplexität und ihre Anwendungen (Li und Vitanyi), Algorithmische Zufälligkeit und Komplexität (Downey und Hirschfeldt), Rechenbarkeit und Zufälligkeit (Nies).
Wie sieht eine Martin-Löf-Zufallsfolge aus? Nehmen Sie eine perfekt ausbalancierte Münze und werfen Sie sie um. Schreiben Sie bei jedem Flip eine 0 für Kopf und eine 1 für Zahl. Fahren Sie bis zum Ende der Zeit fort. So sieht eine Martin-Löf-Sequenz aus :-)
ααααkakαk2−kUkα
αβαnn−O(1)βnα
Ok, jetzt der "Edit" -Teil von Josephs Frage: Kann ein TM mit Zugriff auf eine reine Zufallsquelle (ein Orakel?) Eine Funktion berechnen, die ein klassisches TM nicht kann?
f:N→Nfnn
ffnnfϵ>0σσfσ