Gibt es Schätzungen darüber, wie sich die Komplexität von Quantentechnik mit der Größe skaliert?


12

Es scheint mir eine äußerst relevante Frage für die Aussichten des Quantencomputers zu sein, wie die technische Komplexität von Quantensystemen mit der Größe skaliert. Das heißt, es ist einfacher, n 1 Qubit-Computer als einen n Qubit-Computer zu bauen. In meinen Augen ist dies in etwa analog zu der Tatsache, dass es einfacher ist, Körper-Probleme analytisch zu lösen als ein Körper-Problem, da Verschränkung der primäre Motivationsfaktor für das Quanten-Computing ist.1 nn 1n

Meine Frage lautet wie folgt: Es scheint, dass wir uns wirklich darum kümmern sollten, wie die Schwierigkeit, ein n Körper-Quantensystem aufzubauen und zu steuern, mit wächst n. Fix eine Gate - Architektur, oder sogar ein Algorithmus - ist es eine prinzipielle Schwierigkeit, die dadurch entsteht , dass ein n -qubit Computer ist ein Quanten Problem Vielteilchen-? Und das mathematisch gesehen, ist unser Verständnis, wie Quantenphänomene zu klassischen Phänomenen heraufskaliert werden, ziemlich schlecht? Hier Schwierigkeit könnte in einer beliebigen Anzahl von Arten definiert werden, und die Frage , würden wir kümmern uns um, grob ist, steuert eine 1000 -qubit Maschine (das heißt, die Erhaltung der Kohärenz ihrer Wellenfunktionen) ‚nur‘ 100 x härter als eine Steuerung Qubit-Maschine oder 100 2 oder 100 ! oder 100 100 ? Haben wir Gründe zu der Annahme, dass es mehr oder weniger das erstere und nicht das letztere ist?101002100!100100


Ha, ich weiß nicht, zu was ich führen soll ...
Keith Rush

Hallo @KeithRush, fehlt da nicht auch etwas im ersten Satz? Tolle Frage übrigens.
MEE - Wiedereinsetzung von Monica

Absolut nicht dupliziert, aber ich bin der Meinung, dass die Antworten auf die beiden Fragen eng miteinander verbunden sind: quantumcomputing.stackexchange.com/questions/1803/…
agaitaarino

Antworten:


8

Dies ist eine Frage, über die ich mich seit mehr als 10 Jahren Gedanken gemacht habe. 2008 war ich Student und sagte meinem Quantencomputerprofessor, ich wolle die "physikalische Komplexität" von Quantenalgorithmen untersuchen, bei denen die "rechnerische Komplexität" bekanntermaßen von der Quantenberechnung profitiert.

Zum Beispiel erfordert die GroversucheQuantentore im Gegensatz zuO(n)klassischen Toren, aber was ist, wenn die Kosten für die Steuerung von Quantentoren wie folgt steigen?O(n)O(n)betragen, während sie für klassische Tore nur n betragen ?n4n

Er antwortete sofort:

"Ihre Vorstellung von physischer Komplexität wird sicherlich von der Implementierung abhängen."

Das stellte sich als wahr heraus. Die "physische Komplexität" der Manipulation Qubits mit NMR ist viel schlimmer als bei supraleitenden Qubits, aber wir haben inbeiden Fällenkeine Formel für die physikalische Schwierigkeit in Bezug auf n .nn

Dies sind die Schritte, die Sie unternehmen müssen:

1. Überlegen Sie sich ein genaues Dekohärenzmodell für Ihren Quantencomputer. Dies unterscheidet sich beispielsweise für ein Spin-Qubit in einem GaAs-Quantenpunkt von einem Spin-Qubit in einem Diamant-NV-Zentrum.
2. Berechnen Sie die Dynamik der Qubits bei vorhandener Dekohärenz genau.
3. Zeichnen Sie gegen n , wobei F die Genauigkeit von n ist. Wählen Sie einen Fehlerkorrekturcode. Hier erfahren Sie, wie viele physikalische Qubits Sie für jedes logische Qubit für eine Fehlerrate E benötigenFnFn dekohärenten Qubits im Vergleich zu dem Ergebnis ist, das Sie ohne Dekohärenz erhalten würden.
4. Dies kann Ihnen einen Hinweis auf die Fehlerrate geben (unterschiedliche Algorithmen stellen jedoch unterschiedliche Anforderungen an die Wiedergabetreue).
5.E .
6. Jetzt können Sie die Kosten (in Bezug auf die Anzahl der benötigten Hilfs-Qubits) für das "Engineering" des Quantencomputers zeichnen.

Jetzt können Sie sehen, warum Sie hierher gekommen sind, um die Frage zu stellen, und die Antwort war in keinem Lehrbuch enthalten:

Schritt 1 hängt von der Art der Implementierung ab (NMR, Photonik, SQUIDS usw.).
Schritt 2 ist sehr schwierig. Dekohärenzfreie Dynamik wurde für 64 Qubits ohne physikalische Näherungen simuliert , aber nicht-markovianische, nicht-störende Dynamik mit Dekohärenz ist derzeit auf 16 Qubits beschränkt .
Schritt 4 hängt vom Algorithmus ab. Daher gibt es keine "universelle Skalierung" der physikalischen Komplexität, selbst wenn mit einer bestimmten Art von Implementierung gearbeitet wird (wie NMR, Photonics, SQUIDs usw.).
Schritt 5 hängt von der Wahl des Fehlerkorrekturcodes ab

Um Ihre beiden Fragen konkret zu beantworten:

Ist die Steuerung einer 1000-Qubit-Maschine (dh die Wahrung der Kohärenz ihrer Wellenfunktionen) "nur" mal schwieriger als die Steuerung einer 10- Qubit-Maschine oder 100 2 oder 100 ! oder 100 100100101002100!100100 ?

Es hängt von Ihrer Wahl in Schritt 1 ab , und es ist noch niemandem gelungen, Schritt 1 bis Schritt 3 vollständig zu durchlaufen , um eine genaue Formel für die physikalische Komplexität in Bezug auf die Anzahl der Qubits zu erhalten, selbst für einen bestimmten Algorithmus. Dies ist also immer noch eine offene Frage, die durch die Schwierigkeit begrenzt ist, die Dynamik offener Quantensysteme zu simulieren.

Haben wir Gründe zu der Annahme, dass es mehr oder weniger das erstere und nicht das letztere ist?

Der beste Grund ist, dass dies unsere Erfahrung ist, wenn wir mit IBMs 5-Qubit-, 16-Qubit- und 50-Qubit-Quantencomputern spielen. Die Fehlerraten steigen nicht um oder n 100 . Wie funktioniert die Energie , die es zu nimmt macht den 5-Qubit, 16-Qubit und 50-Qubit - Quantencomputer, und wie funktioniert diese Skala mit n ? Diese "technische Komplexität" hängt noch stärker von der Implementierung ab (denken Sie an NMR vs. SQUIDs) und ist eine offene, wenn auch interessante Frage.n!n100n


1
Wie wäre es mit der einfacheren Frage nach der infinitesimalen Dynamik? Das heißt, für jedes und den Anfangszustand ρ auf ( C 2 ) n haben Sie das Vektorfeld, das durch die an diesem Punkt bewertete Dynamik bestimmt wird. Berechnen Sie die Norm mit dem Fisher-Tensorfeld. Das ist eine wesentlich einfachere Frage, ohne die Dynamik für eine begrenzte Zeit fließen zu lassen, aber dennoch eine Grenze zu setzen. Wenn Sie möchten, nehmen Sie für jedes n das Supremum über alle Startzustände ρ und zeichnen Sie das Ergebnis gegen n . nρ(C2)nnρn
AHusain

1
Was meinst du mit "infinitesimale Dynamik"? Das Vektorfeld wird durch die Dynamik bestimmt, die an welchem ​​Punkt ausgewertet wird? Berechnen Sie die Norm für was (mit dem Fisher-Tensorfeld)? Meinen Sie damit die Norm des Vektorfeldes berechnen? Es scheint möglicherweise eine gute Idee zu sein, aber wenn es das ist, was ich denke, was Sie meinen, nämlich die Dekohärenz für die infinitesimale Zeit bei t = 0 zu betrachten, weiß ich nicht, wie wertvoll dies als Metrik ist, weil es dauert Zeit, bis die Dekohärenz ihre volle Stärke erreicht, da die Dekohärenzstärke durch die Badansprechfunktion gekennzeichnet ist, die ein Integral über t ist.
user1271772

1
Sei die Riemannsche Mannigfaltigkeit, die von allen Zuständen auf n Qubits definiert wird, die mit dem Fisher-Metriktensor ausgestattet sind. Eine gewöhnliche Differentialgleichung definiert ein Vektorfeld auf M n . Für jeden Zustand ρ sehen Sie ein Element in T ρ M n . Sie berechnen die Dekohärenzrate daraus, um eine Funktion r ( ρ ) zu erhalten.(Mn,g)nMnρTρMnr(ρ). Wenn Sie über alle möglichen Zustände hinausgehen möchten, führen Sie einen Gradientenanstieg durch. Dies ergibt eine sehr grobe Grenze der Dekohärenzrate angesichts des Vektorfeldes, das die Dynamik definiert. Dies kann verwendet werden, um die Dekohärenz aufgrund dieser Geschwindigkeitsgrenze auch zu größeren Zeiten zu begrenzen.
AHusain

4

Schaltungskomplexität

Ich denke, das erste Problem besteht darin, wirklich zu verstehen, was unter "Steuern" eines Quantensystems zu verstehen ist. Hierfür könnte es hilfreich sein, über den klassischen Fall nachzudenken.

n2n222n2n/nk2n Bits, um anzugeben, welche mögliche Berechnung Sie ausführen möchten. Diese Informationen müssen inkompressibel sein, da kein Platz zum Speichern vorhanden ist. Wenn Sie jedoch alle diese Funktionen mit kürzeren Schaltkreisen erstellen könnten, wäre die Beschreibung dieses Schaltkreises eine Möglichkeit, die Daten zu komprimieren.

nϵO(n2)Dann ist die richtige Steuerung einer 1000-Qubit-Maschine 10000-mal schwieriger als die Steuerung einer 10-Qubit-Maschine, in dem Sinne, dass Sie sie so lange vor Dekohärenz schützen müssen, so viele weitere Gates implementieren usw.

Dekohärenz

Im Anschluss an die Kommentare,

Betrachten wir einen bestimmten Algorithmus oder eine bestimmte Art von Schaltung. Meine Frage könnte erneut gestellt werden: Gibt es einen theoretischen oder praktischen Hinweis darauf, wie sich das (technische) Problem der Verhinderung von Dekohärenz skaliert, wenn wir die Anzahl dieser Schaltkreise skalieren?

Dies unterteilt sich in zwei Regime. Bei kleinen Quantengeräten könnte man vor der Fehlerkorrektur sagen, wir befinden uns im NISQ-Regime . Diese Antwort ist wahrscheinlich für dieses Regime am relevantesten. Wenn Ihr Gerät jedoch größer wird, werden die Renditen sinken. Es wird immer schwieriger, die Engineering-Aufgabe zu erfüllen, nur um ein paar weitere Qubits hinzuzufügen.

pppp1%O(logϵ)ϵO(logϵ)Skalierungsfaktor. Für bestimmte Zahlen könnten Sie sich für die Art von Berechnungen interessieren, die Andrew Steane durchgeführt hat: siehe hier (obwohl die Zahlen jetzt wahrscheinlich etwas verbessert werden könnten).

Was wirklich sehr überzeugend ist, ist zu sehen, wie sich die Koeffizienten in diesen Beziehungen ändern, wenn sich Ihr Gate-Fehler dem Fehlerkorrekturschwellenwert nähert. Ich kann anscheinend keine geeignete Berechnung finden (ich bin mir sicher, dass Andrew Steane irgendwann eine gemacht hat. Möglicherweise war es ein Gespräch, zu dem ich gegangen bin.), Aber sie sind wirklich in die Luft gegangen, und deshalb möchten Sie operieren mit einem anständigen Spielraum unterhalb der Schwelle.

Dennoch müssen einige Annahmen über Ihre Architektur getroffen werden, bevor diese Überlegungen relevant sind. Zum Beispiel muss es eine ausreichende Parallelität geben; Sie müssen in der Lage sein, gleichzeitig auf verschiedene Teile des Computers einzuwirken. Wenn Sie immer nur eine Sache gleichzeitig tun, werden Fehler immer zu schnell auftreten. Sie möchten auch in der Lage sein, Ihren Herstellungsprozess zu skalieren, ohne dass sich die Situation verschlechtert. Es scheint, dass zum Beispiel supraleitende Qubits dafür ziemlich gut sind. Ihre Leistung hängt hauptsächlich davon ab, wie genau Sie verschiedene Teile der Schaltung herstellen können. Sie bekommen es richtig für einen, und Sie können "nur" viele Male wiederholen, um viele Qubits zu machen.


1
Dies ist im Wesentlichen das, was ich gemeint habe, aber die algorithmische Komplexität zu beseitigen und die Komplexität des Engineerings in den Vordergrund zu stellen - insbesondere die Verhinderung von Dekohärenz. Betrachten wir einen bestimmten Algorithmus oder eine bestimmte Art von Schaltung. Meine Frage könnte erneut gestellt werden: Gibt es einen theoretischen oder praktischen Hinweis darauf, wie sich das (technische) Problem der Verhinderung von Dekohärenz skaliert, wenn wir die Anzahl dieser Schaltkreise skalieren?
Keith Rush

@KeithRush OK! Jetzt beginne ich zu verstehen, wonach Sie suchen :) Im Wesentlichen ist dies die rechnerische Komplexität der Fehlertoleranz - wie viel Zeit und Raum wird benötigt, um eine bestimmte Anzahl von logischen Qubits von hoher Qualität zu erhalten - und etwas, das die Leute ausgearbeitet haben ganz vorsichtig. Ich werde morgen versuchen, die relevanten Informationen herauszufinden, es sei denn, jemand anderes schlägt mich dagegen.
DaftWullie

2

mn

In gewissem Sinne könnte die "Wiedergabetreue" eine Einschätzung geben, wie fehleranfällig der Prozessor ist. Wenn Sie den Quantencomputer zur Berechnung der chemischen Reaktionsdynamik oder eines anderen Problems verwenden, bei dem eine Überlagerung zur Erzielung einer Quantenbeschleunigung (oder sogar einer "Quantenüberlegenheit") verwendet werden könnte, könnte die Dekohärenz einen Einfluss auf Sie haben oder sogar, wie schnell Sie eine Überlagerung erreichen , könnte einen Beitrag zum fehlerfreien Betrieb leisten. "Fidelity" könnte eine Fehlerschätzung liefern, unabhängig davon, ob 1 Qubit oder 200 Qubit verwendet werden. Sie könnten sogar einen Hamiltonianer "konstruieren", um High-Fidelity-Qubits zu erzeugen, im adiabatischen Fall, in dem Leckfehler auftreten.

In der Praxis sind Fehlerraten von 99,5% + äußerst wünschenswert, um eine effiziente Fehlerkorrektur zu ermöglichen. Fehlerraten können von der Art sein, mit der Elektronenspins zwischen Qubits genau gelesen werden. In einem solchen Fall würden Fehlerraten von 99,5% oder 99,8% (Fünf- oder Sechs-Sigma-Konfidenz) weniger Aufwand (Fehlerkorrektur) beim Skalieren des Systems erfordern.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.