Ich bin kürzlich auf einen Artikel von Coudron und Yuen über die Zufälligkeitserweiterung mit Quantengeräten gestoßen . Das Hauptergebnis der Arbeit ist, dass es möglich ist, aus einer konstanten Anzahl von Quellen eine "unendliche" Zufälligkeit zu erzeugen (dh die Anzahl der erzeugten Zufallsbits hängt nur von der Anzahl der Runden des Protokolls und nicht von der Anzahl der Quellen ab ).
Naiv klingt dies für mich so, als ob das Ergebnis die Derandomisierung jedes randomisierten Algorithmus mit Quantenquellen ermöglicht und eine Art Eingrenzung randomisierter Komplexitätsklassen innerhalb einer entsprechenden Quantenklasse implizieren würde.
Aber ich verstehe die Quanteninformationstheorie nicht wirklich und bin mir sicher, dass mir viele Feinheiten fehlen. Ganz zu schweigen davon, dass die Autoren es geschafft hätten, wenn solche Behauptungen möglich gewesen wären. Meine Frage lautet also:
Bedeutet die Existenz einer "unendlichen Zufälligkeitserweiterung", wie in der Arbeit (und allen damit verbundenen Arbeiten) beschrieben, eine Art Derandomisierungsaussagen für randomisierte Komplexitätsklassen? Und wenn nicht, warum nicht?
Update: Ich wurde auf diesen hervorragenden Überblick auf hoher Ebene über das Gebiet und das obige Papier von Scott Aaronson hingewiesen . Leider bin ich immer noch verwirrt :).