Es wurde nachgewiesen, dass adiabatisches Quantencomputing dem "Standard" - oder Gate-Modell-Quantencomputing entspricht. Adiabatisches Rechnen verspricht jedoch Optimierungsprobleme, bei denen das Ziel darin besteht, eine Funktion zu minimieren (oder zu maximieren), die in irgendeiner Weise mit dem Problem zusammenhängt, dh die Instanz zu finden, die diese Funktion minimiert (oder maximiert), löst die Problem.
Nun scheint mir, dass der Algorithmus von Grover im Wesentlichen dasselbe tun kann: Durch Durchsuchen des Lösungsraums wird eine Lösung (möglicherweise aus vielen Lösungen) gefunden, die das Orakelkriterium erfüllt, was in diesem Fall der Optimalitätsbedingung entspricht. in der Zeit , wobeidie Größe des Lösungsraums ist.
Dieser Algorithmus hat sich als optimal erwiesen: Wie Bennett et al. (1997) formulierte es so: "Die Klasse kann auf einer Quantenturingmaschine nicht in der Zeit gelöst werden ." Nach meinem Verständnis bedeutet dies, dass es keine Möglichkeit gibt, einen Quantenalgorithmus zu konstruieren, der eine Lösung findet, indem er den Raum schneller durchsucht als , wobeimit der Problemgröße skaliert.
Meine Frage lautet also: Während adiabatisches Quantencomputing bei Optimierungsproblemen oft als überlegen dargestellt wird, kann es wirklich schneller sein als ? Wenn ja, scheint dies der Optimalität von Grovers Algorithmus zu widersprechen, da jeder adiabatische Algorithmus durch eine Quantenschaltung simuliert werden kann. Wenn nicht, was bringt es, adiabatische Algorithmen zu entwickeln, wenn sie niemals schneller sind als etwas, das wir systematisch mit Schaltkreisen konstruieren können? Oder stimmt etwas mit meinem Verständnis nicht?