Ergebnisse der unteren Grenzen / Härte von Noisy Parity (LWE)


11

Einige Hintergrundinformationen:

Ich bin daran interessiert, "weniger bekannte" Untergrenzen (oder Härteergebnisse) für das Problem "Lernen mit Fehlern" (LWE) und Verallgemeinerungen wie "Lernen mit Fehlern über Ringe" zu finden. Für spezifische Definitionen usw. finden Sie hier eine schöne Umfrage von Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf

Der Standardtyp der Annahme im (R) LWE-Stil ist die (möglicherweise quantenbezogene) Reduktion auf das kürzeste Vektorproblem auf (möglicherweise idealen) Gittern. Es ist bekannt, dass die übliche Formulierung von SVP NP-hart ist, und es wird angenommen, dass es schwierig ist, sich kleinen Polynomfaktoren anzunähern. (Verwandte: Es ist schwierig, CVP innerhalb von / fast-Polynom / Faktoren zu approximieren: http://dl.acm.org/citation.cfm?id=1005180.1005182 ) Ich habe auch gehört, dass dies erwähnt wurde (in Bezug auf Quantenalgorithmen) Die Annäherung bestimmter Gitterprobleme (wie SVP) an kleine polynomielle Approximationsfaktoren hängt mit dem nicht-abelschen Problem der versteckten Untergruppe zusammen (das aus eigenen Gründen als schwierig angesehen wird), obwohl ich nie eine explizite formale Quelle dafür gesehen habe.

Ich interessiere mich jedoch mehr für Härteergebnisse (jeglicher Art), die sich aus dem Problem der lauten Parität aus der Lerntheorie ergeben. Dies können Ergebnisse der Komplexitätsklassenhärte, konkrete algorithmische Untergrenzen, Komplexitätsgrenzen der Stichprobe oder sogar Untergrenzen der Beweisgröße (z. B. Auflösung) sein. Es ist bekannt (vielleicht offensichtlich), dass LWE als eine Verallgemeinerung des LPN-Problems (Noisy Parity / Learning Parity with Noise) angesehen werden kann, das (von Googling) anscheinend zur Härtereduzierung in Bereichen wie Codierungstheorie und PAC verwendet wurde Lernen.

Wenn ich mich umschaue, habe ich nur (leicht subexponentielle) OBERE GRENZEN für das LPN-Problem gefunden, z. B. http://www.di.ens.fr/~lyubash/papers/parityproblem.pdf

Frage:

Ich weiß, dass LPN in der Lerngemeinschaft hart geglaubt wird. Meine Frage ist: Warum?

Liegt es daran, dass sich alle sehr bemüht haben, aber noch niemand einen guten Algorithmus gefunden hat? Gibt es bekannte Untergrenzen der oben kursiv gedruckten Sorte (oder andere, die ich ausgelassen habe)?

Wenn die Antwort sehr eindeutig ist, wäre eine kurze Zusammenfassung der bekannten Informationen und / oder Verweise auf Umfragen / Vorlesungsunterlagen großartig.

Wenn vieles unbekannt ist, ist es umso besser, je mehr "State-of-the-Art" -Papiere vorhanden sind. :) (Danke im Voraus!)

Antworten:


7

Es wird zwar angenommen, dass das LPN-Problem schwierig ist, aber wie die meisten Probleme, die wir für schwierig halten, ist der Hauptgrund dafür, dass viele kluge Leute versucht haben, einen effizienten Algorithmus zu finden, und gescheitert sind.

Der beste "Beweis" für die Härte von LPN ergibt sich aus der hohen statistischen Abfragedimension des Paritätsproblems. Statistische Abfragen erfassen die meisten bekannten Lernalgorithmen, mit Ausnahme der Gaußschen Eliminierung (die bei Einführung von Rauschen fehlschlägt), des Hashings und ähnlicher Techniken. Es ist schwierig, nicht statistische Abfragealgorithmen zu entwerfen, und dies ist der Hauptengpass. Ein weiterer Beweis für die Härte von LPN ist die Beziehung zu anderen schwierigen Problemen (wie LWE, SVP, wie Sie bereits betont haben).

Für die SQ-Härte hier der Link zu Kearns '('98) Papier.

Für den Fortschritt in den oberen Grenzen dieses Problems gibt es mehrere Ergebnisse:

  • 2N2n/logn
  • O(2n/loglogn)O(n1+ϵ)
  • kO(n0.5k)O(nk)O(nk)η1/2
  • O(n0.8k)

2
Dies ist eine sehr schöne Antwort; Vielen Dank! Ich werde das Kopfgeld ein wenig schweben lassen (falls es jemandem gelingt, eine ungerade Balluntergrenze auszubaggern), aber dies scheint aus meiner Sicht vollständig zu sein.
Daniel Apon
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.