Warum kann es keinen Fehlerkorrekturcode mit weniger als 5 Qubits geben?


19

Ich habe in letzter Zeit über 9-Qubit-, 7-Qubit- und 5-Qubit-Fehlerkorrekturcodes gelesen. Aber warum kann es keinen Quantenfehlerkorrekturcode mit weniger als 5 Qubits geben?

Antworten:


13

Ein Beweis, dass Sie mindestens 5 Qubits (oder Qubits) benötigen

Hier ist ein Beweis dafür, dass jeder Quantenfehlerkorrekturcode zur Einzelfehlerkorrektur ( dh Entfernung 3) mindestens 5 Qubits hat. Tatsächlich verallgemeinert sich dies auf Qudits jeder Dimension d und jeden Quantenfehlerkorrekturcode, der ein oder mehrere Qudits der Dimension d schützt .

(Wie Felix Huber bemerkt , ist der ursprüngliche Beweis, dass Sie mindestens 5 Qubits benötigen, auf den Artikel von Knill-Laflamme [ arXiv: quant-ph / 9604034 ] zurückzuführen, in dem die Bedingungen von Knill-Laflamme dargelegt sind: Das Folgende ist die Beweismethode was heutzutage häufiger verwendet wird.)

Jeder Quantenfehlerkorrekturcode , die korrigieren t unbekannt Fehler kann auch korrigieren bis zu 2t Löschfehler (wo wir einfach etwas Qubit verlieren, oder es wird vollständig depolarisiert oder ähnlich) , wenn die Positionen der gelöschten Qubits sind bekannt. [1 Sek. III A] *. Etwas allgemeiner kann ein Quantenfehlerkorrekturcode des Abstands dd1 Löschfehler tolerieren . Zum Beispiel, während die [[4,2,2]] Code kann keine Fehler korrigieren, im Wesentlichen, weil er erkennen kann, dass ein Fehler aufgetreten ist (und auch welche Art von Fehler aufgetreten ist), aber nicht, mit welchem ​​Qubit er aufgetreten ist. Derselbe Code kann vor einem einzelnen Löschfehler schützen (weil durch die Hypothese wissen wir genau, wo der Fehler in diesem Fall auftritt).

Daraus folgt, dass jeder Quantenfehlerkorrekturcode, der einen Pauli-Fehler tolerieren kann, sich vom Verlust von zwei Qubits erholen kann. Nun: Angenommen, Sie haben einen Quantenfehlerkorrekturcode auf n2 Qubits, der ein Qubit gegen Fehler mit einem Qubit codiert. Angenommen, Sie geben Alice n2 Qubits und Bob 2 Qubits: Dann sollte Alice in der Lage sein, den ursprünglichen codierten Zustand wiederherzustellen. Wenn n<5 , dann 2n2 , so dass Bob sollte auchin der Lage sein, den ursprünglichen codierten Zustand wiederherzustellen - wodurch ein Klon von Alices Zustand erhalten wird. Da dies durch das No-Cloning-Theorem ausgeschlossen ist, müssen wir stattdessen n5 .

Zum Korrigieren von Löschfehlern

* Der früheste Hinweis, den ich dafür gefunden habe, ist

[1] Grassl, Beth und Pellizzari.
      Codes für den Quantenlöschkanal .
      Phys. Rev. A 56 (S. 33–38), 1997.
      [ arXiv: quant-ph / 9610042 ]

- was nicht lange nach der Beschreibung der Knill-Laflamme-Bedingungen in [ arXiv: quant-ph / 9604034 ] und damit plausibel der ursprüngliche Beweis für den Zusammenhang zwischen Codeabstand und Löschfehlern ist. Die Gliederung ist wie folgt und gilt für fehlerkorrigierende Codes des Abstands d (und gilt gleichermaßen auch für Qudits jeder Dimension anstelle von Qudits unter Verwendung verallgemeinerter Pauli-Operatoren).

  • Der Verlust von d1 Qubits kann dadurch modelliert werden, dass diese Qubits dem vollständig depolarisierenden Kanal unterliegen, der wiederum dadurch modelliert werden kann, dass diese Qubits gleichmäßig zufälligen Pauli - Fehlern unterliegen.

  • Wenn die Standorte dieser -d1 Qubits unbekannt wären, wäre dies fatal. Wie jedoch ihre Positionen bekannt sind, ein beliebiges Paar Pauli Fehler auf d1 Qubits können voneinander durch Aufruf an die Knill-Laflamme Bedingungen unterschieden werden.

  • Daher wird durch die gelöschten Qubits mit Qubits in dem maximal gemischten Zustand ersetzen und die Prüfung für Pauli Fehler auf diejenigen d1 Qubits specificaly (eine andere Korrekturverfahren erfordern , als Sie zur Korrektur von beliebigen Pauli Fehler verwenden würde, Sie etwas dagegen), können Sie die Wiederherstellung Originalzustand.


1
NB Wenn Sie meine Antwort positiv bewertet haben, sollten Sie auch die Antwort von Felix Huber positiv bewerten , da Sie den Originalbeweis identifiziert haben.
Niel de Beaudrap

14

Was wir leicht beweisen können, ist, dass es keinen kleineren, nicht entarteten Code gibt.

In einem nicht entarteten Code müssen Sie die 2 logischen Zustände des Qubits haben, und Sie müssen für jeden möglichen Fehler einen eigenen Zustand haben, um jeden logischen Zustand abzubilden. Nehmen wir also an, Sie hatten einen 5-Qubit-Code mit den beiden logischen Zuständen |0L und |1L . Die Menge möglicher Single-Qubit-Fehler ist X1,X2,X5,Y1,Y2,,Y5,Z1,Z2,,Z5 , und es bedeutet, dass alle Staaten

|0L,|1L,X1|0L,X1|1L,X2|0L,
müssen orthogonale Zustände abbilden.

Wenn wir dieses Argument allgemein anwenden, zeigt es uns, dass wir

2+2×(3n)
verschiedene Zustände benötigen . Für n Qubits beträgt die maximale Anzahl unterschiedlicher Zustände jedoch 2n . Für einen nicht degenerierten, fehlerkorrigierten Code der Entfernung 3 (dh zur Korrektur von mindestens einem Fehler) oder höher benötigen wir also
2n2(3n+1).
Dies wird als Quantum Hamming Bound bezeichnet. Sie können leicht überprüfen, ob dies für alle n5 zutrifft , aber nicht, wenn n<5. In der Tat ist für n=5 die Ungleichung eine Gleichheit, und wir bezeichnen den entsprechenden 5-Qubit-Code als das Ergebnis als den perfekten Code.


1
Können Sie dies nicht beweisen, indem Sie keinen Code klonen, ohne die Hamming-Grenze aufzurufen?
Norbert Schuch

@ NorbertSchuch der einzige mir bekannte Beweis für das Klonen zeigt nur, dass ein n-Qubit-Code nicht n / 2 oder mehr Fehler korrigieren kann. Wenn Sie eine andere Konstruktion kennen, würde ich mich sehr freuen, sie zu lernen!
DaftWullie

Ah, ich sehe, das ist der Punkt der Antwort von @ NieldeBeaudrap. Cool :)
DaftWullie

1
Dachte, das war ein Standardargument: -o
Norbert Schuch

8

2nkj=0t(nj)3j,
nktttt=d12, then such non-degenerate quantum code will be a [[n,k,d]] quantum error correction code. This bound is obtained by using an sphere-packing like argument, so that the 2n dimensional Hilbert space is partitioned into 2nk spaces each deistinguished by the syndrome measured, and so one error is assigned to each of the syndromes, and the recovery operation is done by inverting the error associated with such measured syndrome. That's why the number of total errors corrected by a non-degenerate quantum code should be less or equal to the number of partitions by the syndrome measurement.

However, degeneracy is a property of quantum error correction codes that imply the fact that there are classes of equivalence between the errors that can affect the codewords sent. This means that there are errors whose effect on the transmitted codewords is the same while sharing the same syndrome. This implies that those classes of degenerate errors are corrected via the same recovery operation, and so more errors that expected can be corrected. That is why it is not known if the quantum Hamming bound holds for this degenerate error correction codes, as more errors than the partitions can be corrected this way. Please refer to this question for some information about the violation of the quantum Hamming bound.


4

I wanted to add a short comment to the earliest reference. I believe this was shown already a bit earlier in Section 5.2 of

A Theory of Quantum Error-Correcting Codes
Emanuel Knill, Raymond Laflamme 
https://arxiv.org/abs/quant-ph/9604034

where the specific result is:

Theorem 5.1. A (2r,k) e-error-correcting quantum code must satisfy r4e+logk.

Here, an (N,K) code is an embedding of a K-dimensional subspace into an N-dimensional system; it is an e-error-correcting code if the system decomposes as a tensor product of qubits, and the code is capable of correcting errors of weight e. In particular, a (2n,2k) e-error-correcting code is what we would now describe as an [[n,k,2e+1]] code. Theorem 5.1 then allows us to prove that for k1 and an odd integer d3, an [[n,k,d]] code must satisfy

n4d12+log2k4d12+k=2d2+k62+1=5.

(N.B. There is a peculiarity with the dates here: the arxiv submission of above paper is April 1996, a couple of months earlier than Grassl, Beth, and Pellizzari paper submitted in Oct 1996. However, the date below the title in the pdf states a year earlier, April 1995.)

As an alternative proof, I could imagine (but haven't tested yet) that simply solving for a weight distribution that satisfies the Mac-Williams Identities should also suffice. Such a strategy is indeed used

Quantum MacWilliams Identities
Peter Shor, Raymond Laflamme
https://arxiv.org/abs/quant-ph/9610040

to show that no degenerate code on five qubits exists that can correct any single errors.


Excellent reference, thanks! I didn't know the Knill--Laflamme paper well enough to know that the lower bound of 5 was there as well.
Niel de Beaudrap

Thanks for editing! About the lower bound, it seems they don't address that five qubits are needed, but only that such code must necessarily be non-degenerate.
Felix Huber

As a side not, from the quantum Singleton bound also n=5 follows for the smallest code being able to correct any single errors. In this case, no-cloning is not required (as dn/2+1 already), and the bound follows from subadditivity of the von Neumann entropy. C.f. Section 7.8.3 in Preskill's lecture notes, theory.caltech.edu/people/preskill/ph229/notes/chap7.pdf
Felix Huber

Unless I badly misread that Section, it seems to me that they show that no error correcting code exists for r4; it seems clear that this also follows from Theorem 5.1 as well. None of their terminology suggests that their result is special to non-degenerate codes.
Niel de Beaudrap

Sorry for the confusion. My side-comment was referring to the Quantum MacWilliams identity paper: there it was only shown that a single-error correcting five qubit code must be pure/non-degenerate. Section 5.2 in the Knill-Laflamme paper ("a theory of QECC..), as they point out, general.
Felix Huber
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.