Mit welchen formalen Prinzipien haben wir anstelle empirischer Beweise bewiesen, dass Quantencomputer schneller sind als traditionelles / klassisches Computing?
Mit welchen formalen Prinzipien haben wir anstelle empirischer Beweise bewiesen, dass Quantencomputer schneller sind als traditionelles / klassisches Computing?
Antworten:
Diese Frage ist etwas schwierig zu entpacken, wenn Sie mit der Komplexität der Berechnungen nicht vertraut sind. Wie die meisten Bereiche der Komplexität von Berechnungen sind die Hauptergebnisse weit verbreitet, aber mutmaßlich.
Die Komplexitätsklassen, die typischerweise mit einer effizienten klassischen Berechnung verbunden sind, sind (für deterministische Algorithmen) und B P P (für randomisierte). Das Quantengegenstück dieser Klassen ist B Q P . Alle drei Klassen sind Teilmengen von P S P A C E (eine sehr mächtige Klasse). Aber unsere aktuellen Beweismethoden sind nicht stark genug , um endgültig zu zeigen , dass P nicht das Gleiche wie P S P A C E . Wir wissen also nicht, wie wir P formal von B Q P trennen sollenentweder - da , ist die Trennung dieser beiden Klassen schwieriger als die ohnehin gewaltige Aufgabe, P von P S P A C E zu trennen . (Wenn wir P ≠ B Q P beweisen könnten , würden wir sofort einen Beweis dafür erhalten, dass P ≠ P S P A C E ist , was P ≠ B Q P beweistmuss mindestens so schwierig sein wie das ohnehin schon sehr schwierige Problem, ) zu beweisen . Aus diesem Grund ist es nach dem gegenwärtigen Stand der Technik schwierig, einen strengen mathematischen Beweis zu erhalten, der zeigt, dass Quantencomputer schneller sind als klassisches Computing.
Daher stützen wir uns normalerweise auf Indizien für die Trennung von Komplexitätsklassen. Unser stärkster und bekanntester Beweis ist Shors Algorithmus, der es uns ermöglicht, zu berücksichtigen . Im Gegensatz dazu kennen wir keinen Algorithmus, der B P P berücksichtigt - und die meisten Leute glauben, dass es keinen gibt; Dies ist auch einer der Gründe, warum wir RSA zum Beispiel für die Verschlüsselung verwenden. Grob gesagt impliziert dies, dass es einem Quantencomputer möglich ist, effizient zu faktorisieren, legt jedoch nahe, dass es für einen klassischen Computer möglicherweise nicht möglich ist, effizient zu faktorisieren. Aus diesen Gründen hat Shors Ergebnis vielen nahegelegt, dass B Q P strikt stärker ist als B P P(und damit auch stärker als ).
Ich kenne keine ernsthaften Argumente, die , außer von den Leuten, die glauben, dass eine viel größere Komplexitätsklasse zusammenbricht (die eine Minderheit der Gemeinschaft sind). Die schwerwiegendsten Argumente, die ich gegen Quantencomputer gehört habe, stammen aus näheren Positionen zur Physik und argumentieren, dass B Q P die Natur des Quantencomputers nicht korrekt erfasst. Diese Argumente besagen typischerweise, dass makroskopische kohärente Zustände nicht aufrechterhalten und kontrolliert werden können (z. B. weil es eine noch unbekannte fundamentale physikalische Hürde gibt), und daher können die Operatoren, auf die sich B Q P stützt, in unserer Welt (selbst im Prinzip) nicht realisiert werden .
Wenn wir uns anderen Berechnungsmodellen zuwenden, ist die Komplexität von Quantenabfragen ein besonders einfaches Modell (die klassische Version, die dem entspricht, ist die Komplexität von Entscheidungsbäumen). In diesem Modell können wir für Gesamtfunktionen beweisen, dass (für einige Probleme) Quantenalgorithmen eine quadratische Beschleunigung erzielen können, obwohl wir auch zeigen können, dass wir für Gesamtfunktionen keine bessere Beschleunigung erzielen können als eine Beschleunigung mit Potenz 6 und glauben, dass die quadratische Beschleunigung die ist bestmöglich. Für Teilfunktionen ist es eine völlig andere Geschichte, und wir können beweisen, dass exponentielle Beschleunigungen erreichbar sind. Diese Argumente beruhen wiederum auf der Annahme, dass wir ein anständiges Verständnis der Quantenmechanik haben und es keine magische, unbekannte theoretische Barriere gibt, die verhindert, dass makroskopische Quantenzustände kontrolliert werden.
Für die Komplexität der Berechnungen gibt es keinen Beweis dafür, dass Quantencomputer besser sind als klassische Computer, da es schwierig ist, die Härte von Problemen zu begrenzen. Es gibt jedoch Situationen, in denen ein Quantencomputer nachweislich besser abschneidet als ein klassischer. Das bekannteste dieser Beispiele ist das Blackbox-Modell, bei dem Sie über die Blackbox auf eine Funktion zugreifen und das eindeutige x finden möchten, für das f den Wert 1 ergibt . Das Maß für die Komplexität ist in diesem Fall die Anzahl der Anrufe an f. Klassischerweise kann man nicht besser sein, als zufällig zu erraten, was im Durchschnitt Ω ( 2 n ) Anfragen an f erfordert . Mit dem Algorithmus von Grover können Sie jedoch dieselbe Aufgabe in O ( √.
Für weitere nachweisbare Trennungen können Sie sich mit der Komplexität der Kommunikation befassen, bei der wir wissen, wie man Untergrenzen beweist. Es gibt Aufgaben, die zwei Quantencomputer, die über einen Quantenkanal kommunizieren, mit weniger Kommunikation als zwei klassische Computer ausführen können. Beispielsweise hat die Berechnung des inneren Produkts zweier Zeichenfolgen, eines der schwierigsten Probleme bei der Komplexität der Kommunikation, eine Beschleunigung bei der Verwendung von Quantencomputern.
Artem Kaznatcheev bietet eine hervorragende Zusammenfassung einiger Hauptgründe, warum wir erwarten, dass Quantencomputer für einige Aufgaben wesentlich schneller sind als klassische Computer.
Wenn Sie eine zusätzliche Lektüre wünschen, können Sie die Vorlesungsunterlagen von Scott Aaronson zum Thema Quantencomputing lesen , in denen der Shor-Algorithmus und andere Algorithmen behandelt werden, die effiziente Quantenalgorithmen zulassen, jedoch keine effizienten klassischen Algorithmen zuzulassen scheinen.
Es gibt eine Debatte darüber, ob Quantencomputer in der Praxis gebaut werden können: Ist BQP ein genaues Modell der Realität, oder gibt es etwas, das uns aus technischen Gründen oder aufgrund grundlegender physikalischer Barrieren davon abhält, einen Quantencomputer zu bauen? Sie können Scott Aaronsons Vorlesungsnotizen lesen , in denen die von anderen vorgebrachten Argumente zusammengefasst sind, und auch seinen Blogbeitrag mit seiner Ansicht zu dieser Debatte lesen , aber wir werden wahrscheinlich keine endgültige Antwort erhalten, bis jemand tatsächlich einen Quantencomputer baut, der nicht-triviale Aufgaben erledigt (wie Faktor große Zahlen).
Das Grundprinzip des Quantencomputers ist die Unitary-Transformation. Dies ist das Hauptwerkzeug für die Beschleunigung vieler Algorithmen in der Literatur. Algorithmen, die Unitaries verwenden, verwenden zahlentheoretische / graphentheoretische Eigenschaften von Problemen bei der Handperiodenfindung, Beschleunigungen bei Quantenläufen usw. Beschleunigungen bei natürlichen Problemen sind - wie bereits erwähnt - immer noch schwer zu erreichen. Ob das Factoring großer Zahlen für das Quantencomputing das Selbstzweck ist, ist noch offen. Andere offene Fragen wie QNC, die Trennung von NC, könnten noch schwer fassbare Hinweise darauf geben, was Quantencomputer tun können. Wenn das Ziel des Quantencomputers jedoch darin besteht, große Zahlen zu faktorisieren, ist dies möglicherweise in Zukunft für sich allein schon machbar und hat beängstigende Auswirkungen (natürlich auf die Privatsphäre)!
Ich wollte auf die Kommentare von Niel de Beaudrap bezüglich der Quelle für Quantenbeschleunigungen antworten, kann mich aber nicht dazu äußern. Ich weiß nicht, ob ich eine Antwort posten kann.
Meiner Ansicht nach sind alle Quantenbeschleunigungen auf Verstrickungen zurückzuführen. Der einzige Algorithmus, mit dem wir etwas schneller als mit klassischen Computern machen können, ohne verschränkte Zustände zu verwenden, ist Deutsch-Jozsa zur Berechnung der Parität von zwei Bits. Wenn wir über asymptotische Beschleunigungen diskutieren, ist eine Verstrickung notwendig, und tatsächlich eine Menge davon. Wenn ein Quantenalgorithmus ein geringes Maß an Verschränkung benötigt, kann er klassisch effizient simuliert werden. Ich kann auf die Veröffentlichung http://arxiv.org/abs/quant-ph/0201143 hinweisen, in der speziell der Faktorisierungsalgorithmus und die erforderliche Verschränkung erörtert werden.
Dies ist fast dieselbe Kernfrage, die Hunderte von Millionen oder möglicherweise Milliarden von Dollar an Forschungsinitiativen im Bereich QM-Computing antreibt, sowohl öffentliche als auch private. Die Frage wird gleichzeitig sowohl experimentell als auch theoretisch angegriffen und Fortschritte auf beiden Seiten werden auf die andere Seite übertragen.
Die Frage versucht, die theoretischen und pragmatischen / experimentellen Aspekte dieser Frage sauber voneinander zu trennen, aber ein Experimentator oder Ingenieur würde behaupten, dass sie eng miteinander verbunden und untrennbar sind und dass der bisherige historische Fortschritt in Bezug auf die Herausforderung ein Beweis dafür ist.
Der folgende Punkt wird sicherlich keine Beliebtheitswettbewerbe gewinnen (möglicherweise aufgrund der allgemein bekannten / beobachteten Tendenz, dass negative Ergebnisse nur selten wissenschaftlich gemeldet werden), aber es ist erwähnenswert, dass es eine von verschiedenen glaubwürdigen Personen vertretene Minderheits- / Gegenmeinung gibt Es gibt sogar Eliteforscher, die QM-Computing aufgrund unüberwindlicher Implementierungsprobleme möglicherweise oder nie physisch verwirklichen werden, und es gibt sogar einige theoretische Rechtfertigungen / Analysen dafür (aber möglicherweise mehr aus theoretischer Physik als TCS). (und beachten Sie, dass einige Zweifel haben, aber nicht bereit sind, das "vorherrschende Paradigma" in Frage zu stellen.) Die Hauptargumente basieren auf dem inhärenten QM-Rauschen, dem Heisenberg-Ungewissheitsprinzip und der grundlegenden experimentellen Verwirrung von QM-Aufbauten usw.
Es gibt mittlerweile zwei Jahrzehnte theoretischer und experimenteller Forschung, und die Minderheitenfraktion würde argumentieren, dass die bisherigen Ergebnisse nicht ermutigend oder trübsinnig sind oder sich sogar noch einer definitiven negativen Antwort nähern.
einer der ausgesprochensten Befürworter der negativen Sichtweise (an der Grenze zu extremen / vernichtenden!) ist Dyakonov, der den Fall jedoch leidenschaftlich aus allen Blickwinkeln argumentiert:
Stand der Technik und Perspektiven für Quantum Computing / Dyakonov
Perspektiven für Quantencomputer: äußerst zweifelhaft / Dyakonov
man mag Dyakonov des Beinahe-Polemismus beschuldigen, aber er dient als nahezu symmetrischer Kontrapunkt zu einigen Befürwortern des QM-Computing, die inbrünstig an die gegnerische Position glauben (dass es praktisch keine Frage ihrer Zukunft / eventuellen / unvermeidlichen Lebensfähigkeit gibt). Ein weiterer wichtiger Theoretiker, der für inhärente Einschränkungen beim QM-Computing (basierend auf Rauschen) plädiert, ist Kalai. Hier ist eine längere Debatte zwischen ihm und Harrow zu diesem Thema.
Es ist auch naheliegend, eine zumindest lose Analogie zu einem anderen massiven / komplexen Physikprojekt zu ziehen, das nach jahrzehntelangen Versuchen und optimistischen frühen Vorhersagen, den Experimenten zur Energieerzeugung, sein endgültiges Ziel noch nicht erreicht hat .