Wir wissen (seit nunmehr rund 40 Jahren, danke Adleman, Bennet und Gill), dass die Aufnahme BPP P / poly und eine noch stärkere BPP / poly P / poly hält. Das "/ poly" bedeutet, dass wir ungleichmäßig arbeiten (ein separater Schaltkreis für jede Eingangslänge ), während P ohne dieses "/ poly" bedeutet, dass wir eine Turingmaschine für alle möglichen Eingangslängen , die sogar länger sind als beispielsweise = die Anzahl der Sekunden bis zum nächsten "Urknall".⊆ n n n
Frage 1: Was würde ein neuer Beweis (oder ein neuer Disproof) von BPP = P zu unserem Wissen beitragen, nachdem wir BPP P / poly kennen?
Unter "neu" verstehe ich alle wirklich überraschenden Konsequenzen wie Zusammenbruch / Trennung anderer Komplexitätsklassen. Vergleichen Sie dies mit den Konsequenzen, die der Proof / Disproof von NP P / poly liefern würde.
[ADDED 08.10.2017]: Eine wirklich überraschende Folge von BPP P wäre, dass, wie von Impagliazzo und Wigderson gezeigt , alle (!) Probleme in E = DTIME hätten Schaltkreise der Größe . Vielen Dank an Ryan für das Zurückrufen dieses Ergebnisses.[ 2 O ( n ) ] 2 o ( n )
Frage 2: Warum können wir BPP = P nicht nach ähnlichen Gesichtspunkten beweisen wie den Beweis von BPP / poly P / poly?
Ein "offensichtliches" Hindernis ist das Problem zwischen endlichen und unendlichen Domänen: Boolesche Schaltkreise arbeiten über endliche Domänen, wohingegen Turing-Maschinen über den gesamten Satz von - Zeichenketten beliebiger Länge arbeiten. Um probabilistische Boolesche Schaltkreise zu derandomisieren, genügt es also, die Mehrheit der unabhängigen Kopien eines probabilistischen Schaltkreises zu nehmen und Chernoffs Ungleichung zusammen mit der Vereinigungsgrenze anzuwenden. Natürlich funktioniert diese einfache Mehrheitsregel in unendlichen Domänen nicht.
Aber ist das (unendliche Domäne) ein echtes "Hindernis"? Durch die Ergebnisse der statistischen Lerntheorie (VC - Dimension) mit, wir bereits können beweisen , dass BPP / Poly P / poly gilt auch für Schaltungen über Arbeits unendlich Domänen, wie Rechenschaltungen (Arbeits über alle reellen Zahlen); siehe zB diese Arbeit von Cucker at al. Bei einem ähnlichen Ansatz müssten wir lediglich zeigen, dass die VC-Dimension von Poly-Time-Turing-Maschinen nicht zu groß sein darf. Hat jemand irgendwelche Versuche gesehen, diesen letzteren Schritt zu machen?
HINWEIS [hinzugefügt am 07.10.2017]: Im Rahmen der Derandomisierung wird die VC-Dimension einer Klasse von Funktionen als die maximale Anzahl für die es Funktionen in wie z dass es für jede einen Punkt mit iff . Dh wir zerschmettern nicht die Punktmengen über Funktionen, sondern die Funktionsmengen über Punkte. (Die beiden resultierenden Definitionen der VC-Dimension hängen zusammen, sind jedoch exponentiell.)
Die Ergebnisse (als einheitliche Wahrscheinlichkeitskonvergenz bekannt ) implizieren dann Folgendes: Wenn für jede Eingabe eine zufällig ausgewählte Funktion (unter einer gewissen Wahrscheinlichkeitsverteilung auf ) erfüllt für eine Konstante , dann kann für alle Eingaben als Mehrheit von berechnet werden einig Funktionen von (festen) . Siehe z. B. Korollar 2 in Hausslers Aufsatz . [Damit dies zutrifft, gibt es einige milde Messbedingungen für ] f ∈ F F P R o b { f ( x ) = f ( x ) } ≥ 1 / 2 + c c > 0 f ( x ) x ∈ X m = O ( v ) F F
Wenn zum Beispiel die Menge aller Polynome durch arithmetische Schaltungen der Größe berechenbar sind , haben alle Polynome in einen Grad von höchstens . Durch die Verwendung von bekannte obere Grenze für die Anzahl der Null-Muster von Polynomen (siehe zB diesem Papier ), kann man zeigen , dass die VC - Dimension ist . Dies impliziert den Einschluss BPP / poly P / poly für arithmetische Schaltungen.f : R n → R ≤ s F D = 2 s F O ( n log D ) = O ( n s ) ⊆