Können wir den „Quantitätsgrad“ in einem Quantenalgorithmus quantifizieren?


24

Verschränkung wird oft als Schlüsselbestandteil hochgehalten, der Quantenalgorithmen gut macht ... Quanten, und dies kann auf die Bell-Zustände zurückgeführt werden, die die Idee der Quantenphysik als probabilistisches Modell mit verstecktem Zustand zerstören. In der Quanteninformationstheorie (nach meinem eher schwachen Verständnis) kann Verschränkung auch als konkrete Ressource verwendet werden, die die Fähigkeit begrenzt, bestimmte Arten der Codierung durchzuführen.

Aber aus anderen Gesprächen (ich habe kürzlich im Ph.D.-Komitee eines Physikers gesessen, der sich mit Quantenmethoden befasst) habe ich herausgefunden, dass die Verschränkung schwer zu quantifizieren ist, insbesondere für Quantenzustände in gemischten Zuständen. Insbesondere scheint es schwer zu sagen, dass ein bestimmter Quantenzustand X Verschränkungseinheiten enthält (in der Doktorarbeit des Studenten ging es darum, Verschränkungsbeträge zu quantifizieren, die durch bekannte Gate-Operationen "hinzugefügt" wurden). Tatsächlich legt eine kürzlich erschienene Doktorarbeit nahe, dass ein Begriff, der als "Quantendiskord" bezeichnet wird, auch relevant (und notwendig) sein könnte, um die "Quantität" eines Algorithmus oder eines Zustands zu quantifizieren.

Wenn wir Verschränkung als Ressource wie Zufall behandeln wollen, ist es angemessen zu fragen, wie man misst, wie viel davon für einen Algorithmus "benötigt" wird. Ich spreche nicht von vollständiger Dequantisierung , sondern nur von einer Art der Mengenmessung.

Gibt es derzeit eine akzeptierte Methode zum Messen der "Quantität" eines Zustands oder eines Operators oder eines Algorithmus im Allgemeinen?


1
Nicht genau die gleiche Frage, aber Earl Campbell hat ein gutes Papier über die Verwicklungskraft von Operatoren: arXiv: 1007: 1445
Joe Fitzsimons

1
Der Begriff der Quantendiskordanz ist definitiv wichtig, um die "Quantität" der Verstrickung zu quantifizieren: prl.aps.org/abstract/PRL/v88/i1/e017901
Artem Kaznatcheev

Andererseits ist überhaupt nicht klar, ob die Zwietracht eine Hilfe bei der Quantifizierung der "Quantität der Berechnung" darstellt. Ich kann keinen Hinweis darauf geben, aber Van den Nest hat ein negatives Argument gegen die Bedeutung der Verschränkung bei der Quantenberechnung vorgebracht, die für kontinuierliche Verschränkungsmaßnahmen gilt. das gleiche Argument sollte zur Zwietracht verallgemeinern.
Juan Bermejo Vega

Antworten:


24

Es kommt auf den Kontext an.

  1. Für Quantenalgorithmen ist die Situation schwierig, da nach allem, was wir wissen, P = BPP = BQP ist. Wir können also niemals sagen, dass ein Quantenalgorithmus etwas tut, was kein klassischer Algorithmus kann. nur etwas, mit dem eine naive Simulation Probleme haben würde. Wenn beispielsweise eine Quantenschaltung als Graph gezeichnet wird, gibt es eine klassische Simulation, die in der Baumbreite des Graphen exponentiell zeitlich abläuft . Die Baumbreite kann daher als obere Grenze der „Quantität“ angesehen werden, obwohl dies kein genaues Maß ist.

    Manchmal wird das Messen der Quantität in Algorithmen mit dem Versuch in Konflikt gebracht, das Ausmaß der Verschränkung zu messen, die von einem Algorithmus erzeugt wird. Wir sind jedoch der Ansicht, dass ein verrauschtes Quantencomputer selbst bei so viel Rauschen Rechenvorteile gegenüber einem klassischen Computer haben kann, dass sich seine Qubits niemals in einem verschränkten Zustand befinden (zB das one clean Qubit Modell ). Daher ist der Konsens jetzt mehr auf der Seite des Denkens der Quantität in Quantenalgorithmen, die sich eher auf die Dynamik als auf die dabei erzeugten Zustände bezieht. Dies kann helfen zu erklären, warum eine Dequantisierung im Allgemeinen nicht möglich ist.

  2. Für zweigliedrige Quantenzustände, in denen der Kontext Zweiparteienkorrelationen ist, haben wir viele, viele gute Quantenzustandsmaße. Viele haben Fehler, wie NP-hart oder nicht additiv, aber wir haben dennoch ein ziemlich differenziertes Verständnis dieser Situation. Hier ist eine aktuelle Rezension .

  3. Es gibt andere Kontexte, zum Beispiel wenn wir einen Quantenzustand haben und zwischen verschiedenen inkompatiblen Messungen wählen möchten. Bei dieser Einstellung gibt es Unsicherheitsprinzipien, die Aufschluss darüber geben, wie inkompatibel die Messungen sind. Je inkompatibler die Messungen sind, desto größer ist die Quantensituation. Dies hängt unter anderem mit der Kryptographie und der Null-Fehler-Kapazität von verrauschten Kanälen zusammen .

10

Arams Antwort ist exzellent. Bitte lassen Sie mich keine Antwort posten, da ich ohnehin nicht mit dem übereinstimme, was er gesagt hat, sondern nur ergänzen möchte.

12000+1211113100+13010+13001

Dies ist besonders relevant für die gestellte Frage, da es scheint, dass ein auf Verwicklungsmaßen basierendes monotones Maß für "Quantenhaftigkeit" ausgeschlossen ist.


7

Eine komplexere theoretische Sichtweise findet sich in Kap. 8 der Arbeit von R. Josza Eine Einführung in die messbasierte Quantenberechnung . Er gibt Folgendes an:

Die auf Messungen basierenden Modelle bieten einen natürlichen Formalismus zur Trennung eines Quantenalgorithmus in "klassische Teile und Quantenteile".

Er gibt auch eine Vermutung über die Menge an "Quantität" an, die ein BQP-Algorithmus benötigt:

O(Logn)

Siehe das Papier für eine klare Erklärung der Quantenschicht und des Modells im Allgemeinen. Die Vermutung ist noch offen und ich denke, dies ist ein guter Weg, um die Quantität eines Algorithmus zu quantifizieren, zumindest von der Seite der rechnerischen Komplexität.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.