Warum ist ein Quantencomputer in gewisser Weise leistungsfähiger als eine nicht deterministische Turingmaschine?


26

Die gängige Darstellung von Nachrichten über Quantencomputer ist, dass ein Quantencomputer (QC) funktioniert, indem er sich in exponentiell viele nicht interagierende parallele Kopien von sich selbst in verschiedenen Universen aufteilt und jeweils versucht, ein anderes Zertifikat zu verifizieren, und zwar am Ende der Berechnung Das einzelne Exemplar, das ein gültiges Zertifikat gefunden hat, "kündigt" seine Lösung an, und die anderen Zweige verschwinden auf magische Weise.

Menschen, die etwas über theoretische Quantenberechnung wissen, wissen, dass diese Geschichte absoluter Unsinn ist und dass die oben beschriebene grobe Idee eher einer nicht deterministischen Turing-Maschine (NTM) entspricht als einem Quantencomputer. Darüber hinaus ist die Kompexitätsklasse von Problemen, die durch NTMs effizient lösbar sind, NP und durch QCs BQP , und es wird angenommen, dass diese Klassen nicht gleich sind.

Die Leute, die versuchen, die populäre Darstellung zu korrigieren, weisen zu Recht darauf hin, dass die vereinfachte Erzählung "viele Welten" die Macht von QCs, von denen angenommen wird, dass sie nicht in der Lage sind, NP- vollständige Probleme zu lösen (sagen wir), stark überzeichnet . Sie konzentrieren sich auf die falsche Darstellung des Messprozesses: In der Quantenmechanik wird das von Ihnen gemessene Ergebnis durch die Born-Regel bestimmt, und in den meisten Situationen übersteigt die Wahrscheinlichkeit, eine falsche Antwort zu messen, die Wahrscheinlichkeit, die richtige zu messen, vollständig. (Und in einigen Fällen, wie zum Beispiel bei der Black-Box-Suche, können wir beweisen, dass keine clevere Quantenschaltung die Born-Regel schlagen und eine exponentielle Beschleunigung liefern kann.) Wenn wir könnten"Entscheide magisch, was zu messen ist", dann wären wir in der Lage, alle Probleme in der Komplexitätsklasse PostBQP , von der angenommen wird, dass sie viel größer ist als BQP , effizient zu lösen .

Aber ich habe noch nie gesehen, dass jemand explizit darauf hingewiesen hat, dass es einen anderen Weg gibt , in dem die populäre Charakterisierung falsch ist, der in die andere Richtung geht. Es wird angenommen, dass BQP keine strenge Teilmenge von NP ist , sondern mit dieser nicht zu vergleichen ist. Es gibt Probleme wie die Fourierprüfung, von denen angenommen wird, dass sie nicht nur außerhalb von NP , sondern tatsächlich außerhalb der gesamten Polynomhierarchie PH liegen . In Bezug auf Probleme wie diese übertreibt die populäre Erzählung die Macht von QCs in der Tat eher unter Staaten als.

Meine naive Intuition ist, dass wenn wir "wählen könnten , was zu messen ist", die populäre Erzählung mehr oder weniger korrekt wäre, was implizieren würde, dass diese Superquantencomputer in der Lage wären, genau die Klasse NP effizient zu lösen . Aber wir glauben, dass das falsch ist; Tatsächlich ist PostBQP = PP , was wir für eine strikte Obermenge von NP halten .

Gibt es eine Intuition für das, was sich hinter den Kulissen abspielt, die es ermöglicht, dass ein Quantencomputer (in gewisser Hinsicht) leistungsfähiger ist als eine nicht deterministische Turing-Maschine? Vermutlich macht diese "inhärente Quantenleistung" in Kombination mit der Nachselektion (die in gewisser Weise bereits über NTMs verfügt) eine Super-QC so viel leistungsfähiger als eine NTM. (Beachten Sie, dass ich nach einer Intuition Ausschau halte, die NTMs und QCs direkt mit der Nachauswahl kontrastiert, ohne die klassische Komplexitätsklasse PP zu "durchlaufen" .)

Antworten:


14

Aus pseudogründer Sicht ist der Grund, warum BQP eine andere mächtige Klasse (um eine Phrase zu prägen) als NP ist, dass Quantencomputer als destruktive Interferenz verwendend angesehen werden können.

Viele verschiedene Komplexitätsklassen können anhand der (mehr oder weniger komplizierten) Anzahl der akzeptierenden Verzweigungen eines NTM beschrieben werden. Wenn ein NTM in "normaler Form" vorliegt, was bedeutet, dass die Menge der Rechenverzweigungen ein vollständiger Binärbaum (oder etwas ähnliches) mit einer gewissen Polynomtiefe ist, können wir Sprachklassen berücksichtigen, die durch die folgenden Unterscheidungen definiert werden:

  • Ist die Anzahl der akzeptierenden Zweige Null oder nicht Null? (Eine Charakterisierung von NP .)
  • Ist die Anzahl der akzeptierenden Zweige geringer als das Maximum oder genau gleich dem Maximum? (Eine Charakterisierung von coNP .)
  • Beträgt die Anzahl der akzeptierenden Zweigniederlassungen höchstens ein Drittel oder mindestens zwei Drittel der Gesamtzahl? (Eine Charakterisierung von BPP .)
  • Beträgt die Anzahl der akzeptierenden Zweige weniger als die Hälfte oder mindestens die Hälfte der Gesamtzahl? (Eine Charakterisierung von PP .)
  • Unterscheidet sich die Anzahl der akzeptierenden Zweige von genau der Hälfte oder entspricht sie genau der Hälfte der Gesamtzahl? (Eine Charakterisierung einer Klasse namens C = P. )

Diese werden als Zählklassen bezeichnet , da sie sich in der Tat auf die Anzahl der akzeptierenden Verzweigungen beziehen.

Wenn die Zweige eines NTM als zufällig generiert interpretiert werden, handelt es sich um Fragen zur Wahrscheinlichkeit der Akzeptanz (auch wenn diese Eigenschaften nicht mit statistischer Sicherheit effizient getestet werden können). Ein anderer Ansatz zur Beschreibung von Komplexitätsklassen besteht darin, stattdessen die Lücke zwischen der Anzahl der akzeptierenden Verzweigungen und der Anzahl der zurückweisenden Verzweigungen eines NTM zu berücksichtigen . Wenn das Zählen der Kumulation von NTM-Berechnungsverzweigungen Wahrscheinlichkeiten entspricht, könnte man vorschlagen, dass das Löschen von akzeptierenden Verzweigungen gegen das Zurückweisen von Verzweigungen das Löschen von rechnerischen "Pfaden" (wie bei Summenüberschreitungspfaden) bei der Quantenberechnung modelliert, dh als Modellierung destruktiver Interferenz .

Die bekanntesten Obergrenzen für BQP , nämlich AWPP und PP , sind auf diese Weise in Bezug auf "Akzeptanzlücken" leicht zu definieren. Die Klasse NP weist jedoch keine so offensichtliche Charakterisierung auf. Darüber hinaus scheinen viele der Klassen, die man aus Definitionen in Bezug auf Akzeptanzlücken erhält, mächtiger zu sein als NP . Man könnte dies als Hinweis darauf verstehen, dass „nicht deterministische destruktive Einmischung“ eine potenziell leistungsfähigere Rechenressource ist als bloßer Nichtdeterminismus. Selbst wenn Quantencomputer diese Rechenressource nicht voll ausnutzen, kann sie dennoch einer leichten Eingrenzung in Klassen wie NP widerstehen .


Sind P und PSPACE Zählklassen? Naiv scheint es, dass ja für P , wie es als die Menge von Problemen definiert werden könnte, die jeder Pfad akzeptiert, aber ich bin nicht sicher, über PSPACE .
Tparker

1
PSPACE ist keine Zählklasse, nein. Sie sind mit P auf dem richtigen Weg --- Sie müssen entweder verlangen, dass jeder Pfad akzeptiert oder jede Pah zurückweist (oder eine ähnlich starke Anforderung), oder Sie könnten mit coNP , coRP oder einer anderen Klasse enden , die nicht bekannt ist gleich P .
Niel de Beaudrap

Vermutlich ist PH auch keine Zählklasse, da sie natürlich eher als alternierende als als nicht deterministische Turingmaschine formuliert ist?
tparker

BPPPPNPBPPNPPP

1
BPPNPBPPNPNPcONPNP

-1

Diese Antwort wurde "migriert" von als diese Frage auf Computer Science gestellt wurde (Autor bleibt der gleiche)


Nun, ein Hauptgrund ist, dass es keine Quantenalgorithmen gibt, die NP-harte Probleme in der Polynomzeit lösen.

Zum anderen kann das adiabetische Quantenglühen (wie im Dwave) das klassische Quantenglühen kaum übertreffen.

===

=


Es gibt Probleme wie die Fourierprüfung, von denen angenommen wird, dass sie nicht nur außerhalb von NP, sondern tatsächlich außerhalb der gesamten Polynomhierarchie liegen. In Bezug auf Probleme wie diese unterschätzt die populäre Erzählung die Macht von QCs eher, als dass sie sie überbewertet.

O(n)O(n)

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.