Die gängige Darstellung von Nachrichten über Quantencomputer ist, dass ein Quantencomputer (QC) funktioniert, indem er sich in exponentiell viele nicht interagierende parallele Kopien von sich selbst in verschiedenen Universen aufteilt und jeweils versucht, ein anderes Zertifikat zu verifizieren, und zwar am Ende der Berechnung Das einzelne Exemplar, das ein gültiges Zertifikat gefunden hat, "kündigt" seine Lösung an, und die anderen Zweige verschwinden auf magische Weise.
Menschen, die etwas über theoretische Quantenberechnung wissen, wissen, dass diese Geschichte absoluter Unsinn ist und dass die oben beschriebene grobe Idee eher einer nicht deterministischen Turing-Maschine (NTM) entspricht als einem Quantencomputer. Darüber hinaus ist die Kompexitätsklasse von Problemen, die durch NTMs effizient lösbar sind, NP und durch QCs BQP , und es wird angenommen, dass diese Klassen nicht gleich sind.
Die Leute, die versuchen, die populäre Darstellung zu korrigieren, weisen zu Recht darauf hin, dass die vereinfachte Erzählung "viele Welten" die Macht von QCs, von denen angenommen wird, dass sie nicht in der Lage sind, NP- vollständige Probleme zu lösen (sagen wir), stark überzeichnet . Sie konzentrieren sich auf die falsche Darstellung des Messprozesses: In der Quantenmechanik wird das von Ihnen gemessene Ergebnis durch die Born-Regel bestimmt, und in den meisten Situationen übersteigt die Wahrscheinlichkeit, eine falsche Antwort zu messen, die Wahrscheinlichkeit, die richtige zu messen, vollständig. (Und in einigen Fällen, wie zum Beispiel bei der Black-Box-Suche, können wir beweisen, dass keine clevere Quantenschaltung die Born-Regel schlagen und eine exponentielle Beschleunigung liefern kann.) Wenn wir könnten"Entscheide magisch, was zu messen ist", dann wären wir in der Lage, alle Probleme in der Komplexitätsklasse PostBQP , von der angenommen wird, dass sie viel größer ist als BQP , effizient zu lösen .
Aber ich habe noch nie gesehen, dass jemand explizit darauf hingewiesen hat, dass es einen anderen Weg gibt , in dem die populäre Charakterisierung falsch ist, der in die andere Richtung geht. Es wird angenommen, dass BQP keine strenge Teilmenge von NP ist , sondern mit dieser nicht zu vergleichen ist. Es gibt Probleme wie die Fourierprüfung, von denen angenommen wird, dass sie nicht nur außerhalb von NP , sondern tatsächlich außerhalb der gesamten Polynomhierarchie PH liegen . In Bezug auf Probleme wie diese übertreibt die populäre Erzählung die Macht von QCs in der Tat eher unter Staaten als.
Meine naive Intuition ist, dass wenn wir "wählen könnten , was zu messen ist", die populäre Erzählung mehr oder weniger korrekt wäre, was implizieren würde, dass diese Superquantencomputer in der Lage wären, genau die Klasse NP effizient zu lösen . Aber wir glauben, dass das falsch ist; Tatsächlich ist PostBQP = PP , was wir für eine strikte Obermenge von NP halten .
Gibt es eine Intuition für das, was sich hinter den Kulissen abspielt, die es ermöglicht, dass ein Quantencomputer (in gewisser Hinsicht) leistungsfähiger ist als eine nicht deterministische Turing-Maschine? Vermutlich macht diese "inhärente Quantenleistung" in Kombination mit der Nachselektion (die in gewisser Weise bereits über NTMs verfügt) eine Super-QC so viel leistungsfähiger als eine NTM. (Beachten Sie, dass ich nach einer Intuition Ausschau halte, die NTMs und QCs direkt mit der Nachauswahl kontrastiert, ohne die klassische Komplexitätsklasse PP zu "durchlaufen" .)