Eine asymptotische Untergrenze wie Exponentialhärte impliziert im Allgemeinen, dass ein Problem "von Natur aus schwierig" ist. Verschlüsselung, die "von Natur aus schwierig" zu knacken ist, gilt als sicher.
Eine asymptotische Untergrenze schließt jedoch nicht aus, dass eine große, aber begrenzte Klasse von Probleminstanzen einfach ist (z. B. alle Instanzen mit einer Größe von weniger als ).
Gibt es einen Grund zu der Annahme, dass eine Kryptographie, die auf asymptotischen Untergrenzen basiert, ein bestimmtes Sicherheitsniveau bietet? Erwägen Sicherheitsexperten solche Möglichkeiten oder werden sie einfach ignoriert?
Ein Beispiel ist die Verwendung von Falltürfunktionen, die auf der Zerlegung großer Zahlen in ihre Primfaktoren beruhen. Früher galt dies als von Natur aus schwierig (ich glaube, dass Exponential die Vermutung war), aber jetzt glauben viele, dass es einen Polynomalgorithmus geben könnte (wie es ihn für Primalitätstests gibt). Das Fehlen einer exponentiellen Untergrenze scheint niemanden zu interessieren.
Ich glaube, dass andere Falltürfunktionen vorgeschlagen wurden, von denen angenommen wird, dass sie NP-hart sind (siehe verwandte Frage ), und einige haben möglicherweise sogar eine nachgewiesene Untergrenze. Meine Frage ist grundlegender: Ist es wichtig, was die asymptotische Untergrenze ist? Wenn nein, hängt die praktische Sicherheit eines kryptografischen Codes überhaupt mit einer asymptotischen Komplexität zusammen?