Einige Hintergrundinformationen:
Ich bin daran interessiert, "weniger bekannte" Untergrenzen (oder Härteergebnisse) für das Problem "Lernen mit Fehlern" (LWE) und Verallgemeinerungen wie "Lernen mit Fehlern über Ringe" zu finden. Für spezifische Definitionen usw. finden Sie hier eine schöne Umfrage von Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf
Der Standardtyp der Annahme im (R) LWE-Stil ist die (möglicherweise quantenbezogene) Reduktion auf das kürzeste Vektorproblem auf (möglicherweise idealen) Gittern. Es ist bekannt, dass die übliche Formulierung von SVP NP-hart ist, und es wird angenommen, dass es schwierig ist, sich kleinen Polynomfaktoren anzunähern. (Verwandte: Es ist schwierig, CVP innerhalb von / fast-Polynom / Faktoren zu approximieren: http://dl.acm.org/citation.cfm?id=1005180.1005182 ) Ich habe auch gehört, dass dies erwähnt wurde (in Bezug auf Quantenalgorithmen) Die Annäherung bestimmter Gitterprobleme (wie SVP) an kleine polynomielle Approximationsfaktoren hängt mit dem nicht-abelschen Problem der versteckten Untergruppe zusammen (das aus eigenen Gründen als schwierig angesehen wird), obwohl ich nie eine explizite formale Quelle dafür gesehen habe.
Ich interessiere mich jedoch mehr für Härteergebnisse (jeglicher Art), die sich aus dem Problem der lauten Parität aus der Lerntheorie ergeben. Dies können Ergebnisse der Komplexitätsklassenhärte, konkrete algorithmische Untergrenzen, Komplexitätsgrenzen der Stichprobe oder sogar Untergrenzen der Beweisgröße (z. B. Auflösung) sein. Es ist bekannt (vielleicht offensichtlich), dass LWE als eine Verallgemeinerung des LPN-Problems (Noisy Parity / Learning Parity with Noise) angesehen werden kann, das (von Googling) anscheinend zur Härtereduzierung in Bereichen wie Codierungstheorie und PAC verwendet wurde Lernen.
Wenn ich mich umschaue, habe ich nur (leicht subexponentielle) OBERE GRENZEN für das LPN-Problem gefunden, z. B. http://www.di.ens.fr/~lyubash/papers/parityproblem.pdf
Frage:
Ich weiß, dass LPN in der Lerngemeinschaft hart geglaubt wird. Meine Frage ist: Warum?
Liegt es daran, dass sich alle sehr bemüht haben, aber noch niemand einen guten Algorithmus gefunden hat? Gibt es bekannte Untergrenzen der oben kursiv gedruckten Sorte (oder andere, die ich ausgelassen habe)?
Wenn die Antwort sehr eindeutig ist, wäre eine kurze Zusammenfassung der bekannten Informationen und / oder Verweise auf Umfragen / Vorlesungsunterlagen großartig.
Wenn vieles unbekannt ist, ist es umso besser, je mehr "State-of-the-Art" -Papiere vorhanden sind. :) (Danke im Voraus!)