1975 hat Miller gezeigt, wie man die Faktorisierung der ganzen Zahl reduziert , um die Periode r einer Funktion f ( x ) = a x zu finden so, dass f ( x + r ) = f ( x ) mit einigen zufällig ausgewählten a < N . Es ist bekannt, dass Shors Algorithmus r auf einem Quantencomputer effizientfinden kann, während angenommen wird, dass es für einen klassischen Computer unlösbar ist, r zu finden.
Meine Frage ist jetzt: Gibt es bekannte Untergrenzen für für zufälliges N ? Gibt es irgendwelche Grenzen für r, wenn N = p q wie in RSA gewählt wird? Offensichtlich r muss Ω ( log ( N ) ) , da sonst könnte man einfach auszuwerten f ( x ) auf O ( log ( N ) ) aufeinanderfolgenden Punkten , um herauszufinden , rklassisch. Würde es ausreichen , RSA zu brechen , wenn es einen klassischen Faktorisierungsalgorithmus war , die nur auf die Verteilung der unter gewissen davon ausgeht , , z r & egr ; & THgr; ( N / log ( N ) ) oder r & egr ; & THgr; ( √?
Eine Präsentation von Carl Pomerance auf „ The multiplikative Ordnung mod im Durchschnitt “ zitiert Beweise dafür , dass ist O ( N / log ( N ) ) im Durchschnitt über alle N , aber ich bin mir nicht sicher , ob ein klassischer Algorithmus, der Faktor kann N unter Die Hypothese von r ∈ O ( N / log ( N ) ) würde RSA endgültig brechen. Kann N kontrovers gewählt werden, um r ∈ O ( N ) zu haben? oder r ∈ O ( √?
(Hinweis: Es gibt eine verwandte Frage zum generischen Factoring im Vergleich zum RSA-Factoring.)