Hintergrund
Funktionen in sind PAC, die in quasipolynomialer Zeit mit einem klassischen Algorithmus lernbar sind, der zufällig ausgewählte O ( 2 l o g ( n ) O ( d ) ) -Anfragen benötigt, um eine Schaltung mit der Tiefe d [1] zu lernen. Wenn es kein 2 n o ( 1 ) Faktorisierungsalgorithmus dann dies ist dies optimal [2]. Natürlich wissen wir auf einem Quantencomputer, wie man faktorisiert, daher hilft diese Untergrenze nicht. Ferner verwendet der optimale klassische Algorithmus das Fourier-Spektrum der Funktion und schreit so "Quantisiere mich!"
[1] N. Linial, Y. Mansour und N. Nisan. [1993] "Schaltungen mit konstanter Tiefe, Fouriertransformation und Lernfähigkeit", Journal of the ACM 40 (3): 607-620.
[2] M. Kharitonov. [1993] "Cryptographic Hardness of Distribution-Specific Learning", Proceedings of ACM STOC'93, S. 372-381.
Tatsächlich hat Scott Aaronson vor 6 Jahren die Lernfähigkeit von als eine seiner zehn semi-großartigen Herausforderungen für die Quantencomputertheorie definiert .
Frage
Meine Frage ist dreifach:
1) Gibt es Beispiele für natürliche Funktionsfamilien, die Quantencomputer unter kryptografischen Voraussetzungen schneller lernen können als klassische Computer?
2) Gab es insbesondere Fortschritte in Bezug auf die Lernfähigkeit von ? (oder das etwas ehrgeizigere T C 0 )
3) In Bezug auf die Lernfähigkeit von kommentiert Aaronson: "Dann hätten Quantencomputer einen enormen Vorteil gegenüber klassischen Computern, wenn sie nahezu optimale Gewichte für neuronale Netze lernen." Kann jemand eine Referenz darüber liefern, wie sich die Gewichtsaktualisierung für neuronale Netze und T C 0 -Schaltungen verhält? (Abgesehen davon, dass Schwellwerttore wie Sigmoidneuronen aussehen) (Diese Frage wurde bereits gestellt und beantwortet. )