Bei der Entwicklung von Algorithmen für das Quantencomputing ist mir aufgefallen, dass es zwei Hauptmodelle gibt, in denen dies durchgeführt wird. Einige Algorithmen - wie zum Beispiel für das Hamilton-NAND-Baum-Problem (Farhi, Goldstone, Guttman) - entwerfen einen Hamilton-Zustand und einen Anfangszustand und lassen das System dann für einige Zeit nach der Schrödinger-Gleichung weiterentwickeln, bevor eine Messung durchgeführt wird.
Andere Algorithmen - wie Shors Algorithmus für Factoring - entwerfen eine Sequenz von Unitary-Transformationen (analog zu Gates) und wenden diese Transformationen nacheinander auf einen bestimmten Anfangszustand an, bevor eine Messung durchgeführt wird.
Meine Frage ist, wie ist die Beziehung zwischen dem Hamiltonschen Modell und dem unitären Transformationsmodell als Anfänger im Quantencomputing? Einige Algorithmen, wie zum Beispiel für das NAND-Baum-Problem, wurden seitdem angepasst, um mit einer Sequenz von einheitlichen Transformationen zu arbeiten (Childs, Cleve, Jordan, Yonge-Mallo). Kann jeder Algorithmus in einem Modell in einen entsprechenden Algorithmus im anderen umgewandelt werden? Ist es beispielsweise möglich, bei einer gegebenen Folge von einheitlichen Transformationen, um ein bestimmtes Problem zu lösen, einen Hamilton-Operator zu entwerfen und das Problem stattdessen in diesem Modell zu lösen? Was ist mit der anderen Richtung? Wenn ja, in welcher Beziehung steht es zwischen der Zeit, in der sich das System entwickeln muss, und der Anzahl der zur Lösung des Problems erforderlichen einheitlichen Transformationen (Gates)?
Ich habe einige andere Probleme gefunden, für die dies der Fall zu sein scheint, aber keine eindeutigen Argumente oder Beweise, die darauf hindeuten, dass dies immer möglich oder sogar wahr ist. Vielleicht liegt es daran, dass ich nicht weiß, wie dieses Problem heißt, und deshalb bin ich mir nicht sicher, wonach ich suchen soll.