Ist BPP vs. P ein echtes Problem, nachdem wir wissen, dass BPP in P / poly liegt?


16

Wir wissen (seit nunmehr rund 40 Jahren, danke Adleman, Bennet und Gill), dass die Aufnahme BPP P / poly und eine noch stärkere BPP / poly P / poly hält. Das "/ poly" bedeutet, dass wir ungleichmäßig arbeiten (ein separater Schaltkreis für jede Eingangslänge ), während P ohne dieses "/ poly" bedeutet, dass wir eine Turingmaschine für alle möglichen Eingangslängen , die sogar länger sind als beispielsweise = die Anzahl der Sekunden bis zum nächsten "Urknall".n n n nnn

Frage 1: Was würde ein neuer Beweis (oder ein neuer Disproof) von BPP = P zu unserem Wissen beitragen, nachdem wir BPP P / poly kennen?

Unter "neu" verstehe ich alle wirklich überraschenden Konsequenzen wie Zusammenbruch / Trennung anderer Komplexitätsklassen. Vergleichen Sie dies mit den Konsequenzen, die der Proof / Disproof von NP P / poly liefern würde.

[ADDED 08.10.2017]: Eine wirklich überraschende Folge von BPP P wäre, dass, wie von Impagliazzo und Wigderson gezeigt , alle (!) Probleme in E = DTIME hätten Schaltkreise der Größe . Vielen Dank an Ryan für das Zurückrufen dieses Ergebnisses.[ 2 O ( n ) ] 2 o ( n ) [2O(n)]2o(n)

Frage 2: Warum können wir BPP = P nicht nach ähnlichen Gesichtspunkten beweisen wie den Beweis von BPP / poly P / poly?

Ein "offensichtliches" Hindernis ist das Problem zwischen endlichen und unendlichen Domänen: Boolesche Schaltkreise arbeiten über endliche Domänen, wohingegen Turing-Maschinen über den gesamten Satz {0,1} von 0 - 1 Zeichenketten beliebiger Länge arbeiten. Um probabilistische Boolesche Schaltkreise zu derandomisieren, genügt es also, die Mehrheit der unabhängigen Kopien eines probabilistischen Schaltkreises zu nehmen und Chernoffs Ungleichung zusammen mit der Vereinigungsgrenze anzuwenden. Natürlich funktioniert diese einfache Mehrheitsregel in unendlichen Domänen nicht.

Aber ist das (unendliche Domäne) ein echtes "Hindernis"? Durch die Ergebnisse der statistischen Lerntheorie (VC - Dimension) mit, wir bereits können beweisen , dass BPP / Poly P / poly gilt auch für Schaltungen über Arbeits unendlich Domänen, wie Rechenschaltungen (Arbeits über alle reellen Zahlen); siehe zB diese Arbeit von Cucker at al. Bei einem ähnlichen Ansatz müssten wir lediglich zeigen, dass die VC-Dimension von Poly-Time-Turing-Maschinen nicht zu groß sein darf. Hat jemand irgendwelche Versuche gesehen, diesen letzteren Schritt zu machen?


HINWEIS [hinzugefügt am 07.10.2017]: Im Rahmen der Derandomisierung wird die VC-Dimension einer Klasse F von Funktionen f:XY als die maximale Anzahl v für die es Funktionen f1,,fv in F wie z dass es für jede S{1,,v} einen Punkt (x,y)X×Y mit fi(x)=y iff iS . Dh wir zerschmettern nicht die Punktmengen über Funktionen, sondern die Funktionsmengen über Punkte. (Die beiden resultierenden Definitionen der VC-Dimension hängen zusammen, sind jedoch exponentiell.)

Die Ergebnisse (als einheitliche Wahrscheinlichkeitskonvergenz bekannt ) implizieren dann Folgendes: Wenn für jede Eingabe eine zufällig ausgewählte Funktion (unter einer gewissen Wahrscheinlichkeitsverteilung auf ) erfüllt für eine Konstante , dann kann für alle Eingaben als Mehrheit von berechnet werden einig Funktionen von (festen) . Siehe z. B. Korollar 2 in Hausslers Aufsatz . [Damit dies zutrifft, gibt es einige milde Messbedingungen für ] fF F P R o b { f ( x ) = f ( x ) } 1 / 2 + c c > 0 f ( x ) x X m = O ( v ) F FxXfFFProb{f(x)=f(x)}1/2+cc>0f(x)xXm=O(v)FF

Wenn zum Beispiel die Menge aller Polynome durch arithmetische Schaltungen der Größe berechenbar sind , haben alle Polynome in einen Grad von höchstens . Durch die Verwendung von bekannte obere Grenze für die Anzahl der Null-Muster von Polynomen (siehe zB diesem Papier ), kann man zeigen , dass die VC - Dimension ist . Dies impliziert den Einschluss BPP / poly P / poly für arithmetische Schaltungen.f : R nRs F D = 2 s F O ( n log D ) = O ( n s ) Ff:RnRsFD=2sFO(nlogD)=O(ns)


3
Zu Q1: Ein Disproof würde überraschend kleine Schaltkreise für jedes in 2 ^ (O (n)) Zeit lösbare Problem zeigen, von Impagliazzo-Wigderson (wie Sie wahrscheinlich wissen?)
Ryan Williams

1
Ich bin durch Q2 verwirrt. Es ist offensichtlich, dass die VC-Dimension eines Poly-Time TM unendlich ist. Dh für jede endliche Menge und jede existiert eine Polyzeit TM, die die Elemente von akzeptiert und die Elemente von zurückweist . Der Schlüssel ist, dass endlich ist, so dass die Polyzeitbeschränkung im Grunde genommen irrelevant ist. S X S X S XX{0,1}SXSXSX
Sasho Nikolov

1
Bezüglich Q2 hat die Einbeziehung nicht wirklich viel mit Komplexitätsklasse und Rechenleistung zu tun. Ich denke, es geht um die Anzahl der zufälligen Bits im Vergleich zur Anzahl der Ratschläge. Ich denke also nicht, dass sie uns irgendwelche Informationen über die Art gibt der effizienten Berechnung.
Kaveh

1
@Kaveh: Der Hinweis "Anzahl der zufälligen Bits vs. Anzahl der Ratschläge" ist es wert, darüber nachzudenken! Aber in meinen (Laien-) Gedanken geht es uns auch bei Fragen wie P gegen NP nicht wirklich um eine "explizite" Konstruktion eines (einheitlichen) TM. Solche Fragen fragen nur nach der Existenz effizienter Algorithmen. Natürlich ist eine Konstruktion ein "zweifelsfreier" Beweis für die Existenz. Es kann aber auch weniger direkte Beweise geben. Die Dinge beschränken sich also darauf, "Existenz für jedes " auf "Existenz für alle " zu erweitern. Das heißt, zu . n nn
Stasys

1
Selbst wenn Sie die Laufzeit festlegen, ist das VC-dim unendlich. Was Sie hoffen können, ist die Begrenzung des VC- Dimms von zeitlich begrenzten TMs, die mit der Eingabegröße . Aber wenn Sie über das Argument nachdenken, müssten Sie für jede : Ungleichmäßigkeit die Mehrheit der potenziell unterschiedlichen TMs nehmen . n nTnn
Sasho Nikolov

Antworten:


17

Ich bin mir nicht sicher, was für eine Antwort das ist, ich gönne mir nur ein paar Gedanken.

Frage 1 könnte gleichermaßen zu P NP und mit einer ähnlichen Antwort gestellt werden - die Techniken / Ideen, die zum Nachweis des Ergebnisses verwendet werden, wären eher der große Durchbruch als die Schlussfolgerung selbst.

Zu Frage 2 möchte ich Hintergrundinformationen und Gedanken mitteilen. So ziemlich alle Techniken und Ideen, die wir für BPP = P haben, gehen, soweit mir bekannt ist, über "Derandomisierung": Konstruieren Sie eine PRG, um eine Reihe deterministisch ausgewählter Bits statt zufälliger zu füttern diejenigen, so dass sein Verhalten sehr ähnlich zu seinem Verhalten auf wirklich zufälligen Bits ist. Mit ausreichend guten Pseudozufallsgeneratoren erhalten wir also BPP = P. (Goldreichs "World of BPP = P" beweist, dass jeder Beweis von BPP = P gleichbedeutend damit sein muss.)

Dies ist so ziemlich im Sinne von BPP P / poly, mit der Ausnahme, dass es sich bei PRG um die durch Zauberei erzeugte Hinweiszeichenfolge handelt. Vielleicht ist die beste Antwort auf Ihre Frage 2, dass wir in P keine Magie haben und uns den Ratschlag selbst einfallen lassen müssen. Die Derandomisierung ist auch die Idee hinter dem 2004er-Ergebnis SL = L, das Werkzeuge wie Expandergraphen verwendet.

Überlegen Sie nun, was ein solcher Beweis für nur einen bestimmten Algorithmus bedeuten würde, den Miller-Rabin-Primalitätstest. Es würde die Existenz eines deterministischen Generators aufzeigen, der eine Folge von Ganzzahlen auswählt, um sie dem Miller-Rabin-Primalitätstest zuzuführen, so dass, wenn und nur wenn alle Ganzzahlen bestanden würden, die ursprüngliche Zahl eine Primzahl war.

Wie ich es verstehe (obwohl ich kein Experte bin), scheint die Frage, ob eine solche Liste existiert und wie klein die Zahlen darin sein können (insbesondere, wenn es ausreicht, alle Zahlen unterhalb einer bestimmten Grenze zu überprüfen), eine ziemlich tiefe Frage zu sein Zahlentheorie und steht in engem Zusammenhang mit Beweisformen der verallgemeinerten Riemannschen Hypothese. Siehe diese Frage . Ich glaube nicht, dass es hier eine formale Implikation gibt, aber es scheint nicht so, als würden wir es nächste Woche als zufällige Miniaturfolge einer viel allgemeineren PRG-Konstruktion erwarten.


Interessante Gedanken! Odeds Aufsatz legt nahe, dass Q2 in der Tat auf "Existenz vs. Konstruktion" von PRGs reduziert wird. Bei der Derandomisierung über die VC-Dimension werden algorithmische Aspekte vollständig ignoriert.
Stasys

2
Vielen Dank an alle (Kaveh, Ricky, Ryan, Sasho und "usul"): Ich habe viel aus Ihren Kommentaren gelernt. "Uniformität" war in meinem Leben nie ein Thema, daher die Naivität meiner Fragen. Ich akzeptiere die Antwort von "usul". Ergänzt durch sehr interessante Bemerkungen von Kaveh, Ricky, Ryan und Sasho, beantwortet dies meine beiden Fragen.
Stasys
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.