Wann werden wir wissen, dass die Quantenüberlegenheit erreicht wurde?


22

Der Begriff "Quantenüberlegenheit" bedeutet nach meinem Verständnis, dass man Algorithmen erstellen und ausführen kann, um Probleme auf Quantencomputern zu lösen, die in realistischen Zeiten auf Binärcomputern nicht gelöst werden können. Dies ist jedoch eine ziemlich vage Definition - was würde in diesem Zusammenhang als "realistische Zeit" gelten? Muss es der gleiche Algorithmus sein oder nur das gleiche Problem? Nicht in der Lage zu sein, Quantencomputer bestimmter Größen zu simulieren, kann sicherlich nicht das beste Maß sein.

Antworten:


17

Der Begriff quantum supremacy bedeutet nicht notwendigerweise , dass man algorithmsals solcher auf einem Quantencomputer laufen kann, der auf einem klassischen Computer nicht praktikabel ist. Es bedeutet nur, dass ein Quantencomputer etwas kann , das für einen klassischen Computer schwer zu simulieren ist.

Sie könnten fragen (und das zu Recht), was ich damit meinen könnte, wenn ich über etwas spreche, das von einem Quantencomputer ausgeführt wird, der kein Quantencomputer ist algorithm. Damit meine ich, dass wir einen Quantencomputer einen Prozess ausführen lassen können, der

  • hat nicht unbedingt ein sehr gut verstandenes Verhalten - insbesondere gibt es sehr wenige Dinge, die wir über diesen Prozess beweisen können;

  • Insbesondere löst dieser Prozess kein Problem von praktischem Interesse - die Antwort auf die Berechnung beantwortet nicht notwendigerweise eine Frage, an der Sie interessiert sind.

Wenn ich sage, dass der Prozess nicht unbedingt ein gut verstandenes Verhalten aufweist, heißt das nicht, dass wir nicht wissen, was der Computer tut: Wir werden eine gute Beschreibung der Vorgänge haben, die er ausführt. Wir werden jedoch nicht unbedingt genau wissen , wie sich diese Operationen auf den Zustand des Systems auswirken . (Das eigentliche Versprechen der Quantenberechnung wurde ursprünglich vorgeschlagen, weil quantenmechanische Systeme schwer zu simulieren sind , was bedeutet, dass es in der Lage sein könnte, andere Systeme zu simulieren, die schwer zu simulieren sind.)


Sie könnten sich fragen, was der Sinn ist, wenn ein Quantencomputer etwas tut, das schwer zu simulieren ist, wenn der einzige Grund nur darin besteht, dass es schwierig zu simulieren ist. Der Grund dafür ist: Es zeigt einen Beweis des Prinzips. Angenommen, Sie können Quantensysteme mit 35 Qubits, mit 40 Qubits, mit 45 Qubits, mit 50 Qubits usw. erstellen. Jedes System wird nach denselben technischen Prinzipien erstellt, von denen jedes in der Praxis simuliert werden kann, und jedes verhält sich so wie die Simulation sagt voraus(bis zu guten Toleranzen), wobei jedoch jede Simulation wesentlich ressourcenintensiver ist als die letzte. Wenn Sie dann ein System mit 55 oder 60 Qubits haben, das Sie mit dem größten Supercomputer der Welt nicht simulieren können, könnten Sie argumentieren, dass Sie eine Architektur haben, die zuverlässige Quantencomputer (basierend auf den Größen, die Sie simulieren können) baut und die es sein kann wird verwendet, um Quantencomputer zu bauen, die groß genug sind, dass keine bekannte Simulationstechnik ihr Verhalten vorhersagen kann (und wo vielleicht keine solche Technik überhaupt möglich ist).

Diese Phase an sich ist nicht unbedingt nützlichfür alles, aber es ist eine notwendige Bedingung, um interessante Probleme auf einem Quantencomputer schneller lösen zu können als auf einem klassischen Computer. Die Tatsache, dass Sie in dieser Phase nicht unbedingt „interessante“ Probleme lösen können, ist einer der Gründe, warum die Menschen manchmal mit dem Begriff „Vormachtstellung“ unzufrieden sind. (Es gibt andere Gründe, die mit politischen Konnotationen zu tun haben, die meiner Meinung nach gerechtfertigt sind, aber hier nicht zum Thema gehören.) Nennen Sie es, wenn Sie es vorziehen, "Quantum Ascendancy" - das heißt, es markiert einen Punkt, an dem Quantentechnologien definitiv an Bedeutung gewinnen Es besteht zwar noch keine Gefahr, das Mobiltelefon in der Tasche, in Desktop-Computern oder sogar in Industrie-Supercomputern zu ersetzen, aber es ist ein Punkt von Interesse in der Entwicklungskurve jeder Quantencomputertechnologie.


Aber unter dem Strich geht es bei "Quantenüberlegenheit" genau darum, "Quantencomputer bestimmter Größen nicht simulieren zu können" oder zumindest bestimmte Prozesse, die Sie ausführen lassen können, und diesen Benchmark nicht zu simulieren hängt nicht nur von der Quantentechnologie ab, sondern auch von der besten verfügbaren klassischen Technologie und den besten verfügbaren klassischen Techniken. Es ist eine verschwommene Grenze, bei der wir, wenn wir es ernst meinen, nur zuversichtlich sind, dass wir ein oder zwei Jahre nach der Tat vergangen sind. Aber es ist eine wichtige Grenze zu überschreiten.


Zur Fußnote: In Bezug auf Ihre Frage "Muss es derselbe Algorithmus sein?" Kann ein Quantencomputer nur dann einen Vorteil gegenüber einem klassischen Computer erzielen, wenn er einen radikal anderen Algorithmus verwendet. Der Grund ist einfach: Quantencomputer würden keinen Vorteil erzielen, indem sie Operationen schneller ausführen (sicherlich nicht in ihrem aktuellen Entwicklungsstand und möglicherweise nie), sondern indem sie weniger Operationen ausführen , die nicht den sinnvollen Operationen entsprechen, die ein herkömmlicher Computer ausführen könnte gemacht werden, um zu tun.
Niel de Beaudrap

Um sicherzugehen: Mit der Ankündigung des 72-Qubit- Bristlecone-Chips von Google und der meines Wissens größten Anzahl von simulierten Qubits von 56 Qubit könnten wir dies erreichen, sobald Google seinen Chip bewiesen hat?
blalasaadri

2
Vorausgesetzt, die Qubits im Google-Chip sind stabil genug und die Fehlerraten in den Vorgängen sind niedrig genug, dass man genug Vorgänge ausführen kann, um etwas zu tun, das klassisch schwer zu simulieren ist, bevor sich der Speicher entschlüsselt - dann ja, das könnte der erste sein "Quantum Ascendancy" -Ereignis. Grundsätzlich ist es sehr sinnvoll, über den Aufstieg einer bestimmten Architektur zu sprechen, wofür Googles Bristlecone ein Beispiel ist. Als historischer Trivia wäre es jedoch interessant festzustellen, wer als Erster ins Schwarze getroffen hat, und Google könnte der erste sein.
Niel de Beaudrap

7

Der von Preskill im Jahr 2012 eingeführte Begriff der Quantenüberlegenheit ( 1203.5813 ) kann durch den folgenden Satz definiert werden:

Wir hoffen daher, den Beginn der Ära der Quantenüberlegenheit zu beschleunigen, wenn wir in der Lage sein werden, Aufgaben mit gesteuerten Quantensystemen auszuführen, die über das hinausgehen, was mit gewöhnlichen digitalen Computern erreicht werden kann.

Oder, wie Wikipedia es umformuliert, Quantenüberlegenheit ist die potenzielle Fähigkeit von Quantencomputern, Probleme zu lösen, die klassische Computer praktisch nicht lösen können .

Es ist anzumerken, dass dies keine genaue Definition im mathematischen Sinne ist. Was Sie genau aussagen können, ist, wie die Komplexität eines bestimmten Problems mit der Dimension der Eingabe skaliert (z. B. die Anzahl der zu simulierenden Qubits, wenn es sich um ein Simulationsproblem handelt). Wenn es dann , dass die Quantenmechanik stellt sich heraus ermöglicht effizient das gleiche Problem zu lösen (und, ganz entscheidend, Sie sind in der Lage , es zu beweisen), dann gibt es Raum für eine Quantenvorrichtung zu demonstrieren (oder besser gesagt, den Nachweis erbringen , towards) Quanten Vorherrschaft ( oder Quantenvorteil , oder wie auch immer Sie es nennen möchten, siehe zum Beispiel die Diskussion in den Kommentaren hier ).


Wann kann man im Lichte der obigen Ausführungen genau behaupten, das Quantenüberlegenheitsregime erreicht zu haben ? Letztendlich gibt es keine einzige magische Zahl , die Sie vom "klassisch simulierbaren Regime" zum "Quantenüberlegenheitsregime" bringt, und dies ist eher ein kontinuierlicher Übergang, in dem man mehr und mehr Beweise für das "Quantenüberlegenheitsregime" sammelt Aussagen, die die Quantenmechanik besser kann als die klassische Physik (und dabei Beweise gegen die Extended Church-Turing-These liefert).

Auf der einen Seite gibt es Regime, die offensichtlich in das "Quantenüberlegenheitsregime" fallen. Hier gelingt es Ihnen, ein Problem mit einem Quantengerät zu lösen, das Sie mit einem klassischen Gerät einfach nicht lösen können . Wenn Sie zum Beispiel eine riesige Zahl faktorisieren können, für deren Berechnung mit einem klassischen Gerät das Alter des Universums benötigt würde (und wenn Sie davon ausgehen, dass es jemandem gelungen ist, zu beweisen, dass Factoring in der Tat klassisch schwer ist, was alles andere als selbstverständlich ist), dann scheint es so Es ist schwer zu widerlegen, dass die Quantenmechanik es tatsächlich erlaubt, einige Probleme effizienter zu lösen als klassische Geräte.

Das oben Gesagte ist jedoch kein guter Weg, um an die Quantenüberlegenheit zu denken, vor allem, weil einer der Hauptpunkte der Quantenüberlegenheit ein Zwischenschritt ist, bevor praktische Probleme mit Quantencomputern gelöst werden können. In der Tat lockert man bei der Suche nach der Quantenüberlegenheit die Notwendigkeit, nützliche Probleme zu lösen , und versucht nur, das Prinzip anzugreifen, dass zumindest für einige Aufgaben die Quantenmechanik tatsächlich Vorteile bietet.

Wenn Sie dies tun und nach dem einfachsten Gerät fragen, das Quantenüberlegenheit demonstrieren kann , wird es langsam schwierig. Sie möchten den Schwellenwert ermitteln, ab dem Quantengeräte besser sind als klassische, aber dies bedeutet, dass zwei radikal unterschiedliche Arten von Geräten verglichen werden, auf denen radikal unterschiedliche Arten von Algorithmen ausgeführt werden . Es gibt keine einfache (bekannte?) Möglichkeit, dies zu tun. Berücksichtigen Sie beispielsweise, wie teuer der Bau der beiden unterschiedlichen Geräte war? Und was ist mit einem Vergleich eines klassischen Allzweckgeräts mit einem Quantum One für spezielle Zwecke? Ist das fair? Was ist mit der Validierung ?1

  1. Ein genau definiertes Rechenproblem.
  2. Ein Quantenalgorithmus zur Lösung des Problems, der auf einer kurzfristigen Hardware ausgeführt werden kann, die mit Rauschen und Fehlern umgehen kann.
  3. Eine Reihe von Rechenressourcen (Zeit / Raum), die jedem klassischen Wettbewerber zur Verfügung stehen.
  4. Eine kleine Anzahl gut begründeter komplexitätstheoretischer Annahmen.
  5. Eine Überprüfungsmethode, die effizient zwischen den Leistungen des Quantenalgorithmus und jedem klassischen Konkurrenten unter Verwendung der zulässigen Ressourcen unterscheiden kann.

108

Auch in Bezug auf die genauen Schwellenwerte, die das "klassische" vom "Quantenüberlegenheits" -Regime trennen, kann man einen Blick auf die Diskussionen um die Anzahl der Photonen werfen, die erforderlich sind, um die Quantenüberlegenheit in einem Bosonen-Probenahmeexperiment zu beanspruchen. Die gemeldete Zahl lag anfangs bei 20 und 30 ( Aaronson 2010 , Preskill 2012 , Bentivegna et al. 2015 ua), dann kurzzeitig bei sieben ( Latmiral et al. 2016 ) und dann wieder bei ~ 50 ( Neville et al. 2017 , und Sie können sich die kurze Diskussion dieses Ergebnisses hier ansehen ).

Es gibt viele ähnliche Beispiele, die ich hier nicht erwähnt habe. Zum Beispiel gibt es die ganze Diskussion um den Quantenvorteil über IQP-Schaltungen oder die Anzahl der Qubits, die erforderlich sind, bevor ein Gerät nicht klassisch simuliert werden kann ( Neill et al. 2017 , Pednault et al. 2017 und einige andere Diskussionen zu diesen Ergebnissen). . Eine andere nette Kritik, die ich oben nicht erwähnt habe, ist diese von Lund et al. Papier 2017 .

(1) Ich verwende hier die Neuformulierung der Kriterien gemäß Calude und Calude ( 1712.01356 ).

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.