Was ist die schnellste bekannte BPP-Simulation mit Las Vegas-Algorithmen?


10

BPP undZPP sind zwei grundlegende probabilistische Komplexitätsklassen.

BPP ist die Klasse von Sprachen, die durch probabilistische Polynomzeit-Turing-Algorithmen bestimmt wird, bei denen die Wahrscheinlichkeit, dass der Algorithmus eine falsche Antwort zurückgibt, begrenzt ist, dh die Fehlerwahrscheinlichkeit beträgt höchstens13 (sowohl für JA als auch für NEIN).

Andererseits können ZPP -Algorithmen als solche probabilistischen Algorithmen angesehen werden, die niemals eine falsche Antwort zurückgeben, wenn sie eine Antwort zurückgeben, die korrekt ist. Ihre Laufzeit ist jedoch nicht durch ein Polynom begrenzt, sondern läuft im erwarteten Polynom.

Sei ZPTime(f) die Sprachklasse, die durch probabilistische Algorithmen mit einer Fehlerwahrscheinlichkeit von Null und der erwarteten Laufzeit f . Diese werden auch als Las Vegas-Algorithmen und ZPP=ZPTime(nO(1)) .

Meine Frage ist , was am besten wissen Simulation ist BPP Algorithmen Algorithmen Las Vegas mit? Können wir sie in subexponentieller erwarteter Zeit simulieren? Gibt es eine bekannte Verbesserung gegenüber der trivialen Brute-Force-Simulation, die exponentielle Zeit benötigt?

Wissen wir formal, ob BPPZPTime(2O(nϵ)) oder BPPZPTime(2nnϵ) für einige ϵ>0 ?


3
Was ist n, die Länge der Eingabe? Warum können wir in akzeptieren ? 2n
Domotorp

1
ist dasselbe wie 2 p o l y ( n ) . 2poly(n)nϵ2poly(n)
Emil Jeřábek

2
Ich finde die Frage sehr interessant. Ich habe die Frage bearbeitet, um sie lesbarer und präziser zu machen. Fühlen Sie sich frei, weiter zu bearbeiten. ps: Ich vermute, dass Sie wahrscheinlich die polynomiell vielen zufälligen Bits berücksichtigen wollten, die vom BPP-Algorithmus als Parameter für die Simulationszeit verwendet werden, aber wie Emil hervorhebt, ergibt das, was Sie geschrieben haben, . Wenn Sie möchten, dass Sie BPP durch eine bestimmte Klasse von Algorithmen für begrenzte Fehlerwahrscheinlichkeiten ersetzen, die einen Parameter für die Anzahl der vom Algorithmus verwendeten Zufallsbits enthalten. 2poly(n)
Kaveh

Sie können fragen, ob wir einen BPP-Algorithmus simulieren können, der Zufallsbits in Z P T i m e ( 2 r ( n ) - n ϵ n O ( 1 ) ) verwendet, da die Brute-Force-Simulation in 2 r ausgeführt wird ( n ) n O ( 1 ) Zeit. r(n)ZPTime(2r(n)nϵnO(1))2r(n)nO(1)
Kaveh

Antworten:


13

Zuerst wird beobachten , daß , wenn für eine Konstante c , dann B P PN E X P . (Beweis durch nichtdeterministische Zeithierarchie.) Der Nachweis einer solchen Einbeziehung wäre daher nicht nur deshalb von Bedeutung, weil es sich um eine verbesserte Simulation handelt, sondern würde auch den ersten Fortschritt bei randomisierten Zeituntergrenzen seit Jahrzehnten bringen.BPPZPTIME[2nc]cBPPNEXP

Als nächstes betrachten wir die Klasse PromiseBPP , für die das folgende Problem " -hard" ist:PromiseBPP

Schaltung Approximation Probability Problem (CAPP): Bei einer Schaltung , die Ausgangsakzeptanzwahrscheinlichkeit von C auf innerhalb eines 1 / 6 additiven Faktors.CC1/6

2nεnC C k n 2 k - ω ( log k ) pNEXPP/polyCknN E X PP / p o l y2kω(logk)poly(n)NEXPP/poly. Das heißt, es gibt sicherlich Probleme, die mit der Zufälligkeit von zweiseitigen Fehlern berechenbar sind, für die Null-Fehler-Algorithmen, die die erschöpfende Suche sogar geringfügig übertreffen, implizite untere Grenzen implizieren würden. Ich glaube, dies sollte als mögliche Methode zum Nachweis von Untergrenzen interpretiert werden. Ihr Kilometerstand kann variieren.

Beachten Sie, dass sogar der Nachweis von ebenfalls offen ist und dass dies auch Untergrenzen implizieren würde: von Kabanets und Impagliazzo 2004, wenn Polynomidentität Das Testen (ein -Problem) befindet sich in für alle , dann haben wir Untergrenzen für entweder Permanent oder . Kürzlich (in STOC'13) habe ich bedingungslos bewiesen, dass entweder oder hatc o R P Z P T I M E [ 2 n ε ] ε > 0 N E X P B P Pi o Z P.RPZPTIME[2nε]coRPZPTIME[2nε]ε>0NEXP R T I M E.BPPioZPTIME[2nε]/nεn cRTIME[2n]ncGrößenschaltungen, die auf der "easy zeugen" -Methode von Kabanets aufbauen. Dies impliziert zwei Dinge:

  1. Es gibt ein , so dass für alle , ist bedingungslos in - das ist über die beste unbedingten Derandomisierung von in , die wir bisher kennen.ε > 0 R P i o Z P T I M E [ 2 n ε ]cε>0RPioZPTIME[2nε]/ncRP/BPPZPP

  2. Um interessante subexponentielle Simulationen von , müssen Sie "nur" davon ausgehen, dass keine Schaltungen mit fester Polynomgröße hat.R T I M E [ 2 n ]BPPRTIME[2n]


Vielen Dank an Niel, dass sie sich die Zeit genommen haben, meine Antwort lesbar zu machen :)
Ryan Williams

2
Ryan, ich glaube, ich werde gleich eine sehr dumme Frage stellen, aber jetzt gehe ich: Warum brauchst du in deinem ersten Satz "für alle "? Bedeutet die BPP-Teilmenge von ZPTIME (2 ^ (n ^ c)) für einige c nicht, dass die BPP-Teilmenge von RTIME (2 ^ (n ^ c)) und damit NTIME (2 ^ (n ^ c)) festgelegt ist, also ist BPP ungleich NEXP oder anderweitig NTIME (2 ^ (2n ^ c)) ist eine Teilmenge von NTIME (2 ^ (n ^ c))? ϵ
Sasho Nikolov

1
nicht dumm - tatsächlich reicht für einige für , danke, dass Sie darauf hingewiesen haben. Für die anderen Konsequenzen sind jedoch subexponentielle Zeitalgorithmen erforderlich. c B P P N E X P.BPPNTIME(2nc)cBPPNEXP
Ryan Williams

Ryan: Wenn ich Ihr Papier verstehen wollte, welches Buch / welche Papiere über die Komplexität von Schaltkreisen empfehlen Sie, sich damit vertraut zu machen?
T ....

Hallo Arul, zum Glück hat mir Bill Gasarch diese Frage vor einiger Zeit gestellt und die folgende Webseite mit Links eingerichtet: cs.umd.edu/~gasarch/ryan/ryan.html
Ryan Williams

8

Es hängt davon ab, welche Annahmen Sie treffen möchten.

ESIZE(2εn)P=BPPBPP=ZPPLBPP

ZPEioDTIME(2εn)BPP=ZPP


4

Abgesehen von Fortschritten bei der Derandomisierung scheint mir die Anforderung, dass die Las Vegas-Maschine keine Fehler macht, von entscheidender Bedeutung zu sein, so dass Zufälligkeit in diesem Fall kaum oder gar keinen Nutzen bringt.

LAx{0,1}nr{0,1}N(n) AA'A'(r)=A(x,r)A'a{0,1}1-a

Prr(A accepts (x,r))23orPrr(A accepts (x,r))13
AAA(r)=A(x,r) und angesichts des Versprechens, dass eine Ausgabe für mindestens doppelt so viele Eingaben wie die entgegengesetzte Ausgabe ergibt , bestimmen Sie welche Ausgabe ist häufiger.Aa{0,1}1a

Obwohl die Las Vegas-Maschine zufällige Techniken verwenden kann, können wir, wenn wir tatsächlich gezwungen sind, als Orakel zu behandeln , sehen, dass die einzige Strategie, die einer Las Vegas-Maschine zur Verfügung steht, darin besteht, eine relativ gründliche (wenn auch nicht erschöpfende) Untersuchung der zufällige Zeichenfolgen , um zu sehen, welche Antwort für jede gegeben wird. Es kann nur sicher sein, ob es mehr als verschiedene Zeichenfolgen die alle zur gleichen Ausgabe führen; Andernfalls kann es mit geringer Wahrscheinlichkeit (aber nicht Null!) unglücklich sein, eine nicht repräsentative Stichprobe der möglichen Ausgaben zu erhalten. Um einen Fehler von Null zu erhalten, müssen mindestens Eingänge . r 2 N ( n )Arr 2 N ( n )2N(n)/3rr2N(n)/3r

Da die Las Vegas-Maschine mindestens einen konstanten Bruchteil aller möglichen Zufallszeichenfolgen , sind wir asymptotisch nicht besser dran, als wenn wir alle möglichen Zufallszeichenfolgen deterministisch getestet hätten. Wir erhalten keinen asymptotischen Vorteil bei der zufälligen Simulation von BPP- Algorithmen in einer Null-Fehler-Einstellung, über das hinaus, was wir mit Brute-Force deterministisch tun können.r

Beachten Sie, dass dasselbe Argument zu einer zwischen BPP und ZPP führt , dh  es gibt ein Orakel so dass weil der ZPP- Algorithmus exponentielle Zeit benötigt, während a Der BPP- Algorithmus kann die Frage nach dem Orakel in einer einzigen Abfrage lösen und mit einem begrenzten Fehler erfolgreich sein. Es sagt Ihnen jedoch nicht mehr als das, was Sie bereits vermutet haben (dass der Simulationsaufwand möglicherweise schlechter als das Polynom ist) oder dass die Asymptotik genauso schlecht ist wie eine naive deterministische Simulation.Z P P AB P P A.A

ZPPABPPA

Korrigieren Sie mich, wenn ich falsch liege: Sie geben eine intuitive Begründung an, warum eine Derandomisierung unmöglich erscheint, aber wir wissen, dass BPP, ZPP und P unter vernünftigen Annahmen alle dasselbe sind. so dass Intuition nicht unbedingt gut ist
Sasho Nikolov

1
Überhaupt nicht. Derandomisierung wäre vermutlich ein Einblick in die Simulation von BPP durch P , nicht wahr ? Ich beschreibe nur, wie er, wenn er bedingungslose Ergebnisse will, die die Struktur des Algorithmus selbst nicht ausnutzen, genauso gut eine deterministische Simulation wie eine randomisierte Null-Fehler-Simulation durchführen kann. Oder stimmt etwas mit dieser Erklärung nicht?
Niel de Beaudrap

1
Ich denke, alles, was Sie sagen, ist, dass die naive Brute-Force-Simulation von BPP durch ZPP nicht viel schneller ist als die naive Brute-Force-Simulation von BPP durch P., aber ich kann nicht sehen, was das zeigen soll. Für mich ist das so, als würde jemand fragen, was der schnellste Algorithmus ist, um eine maximale Übereinstimmung zu finden, und als Antwort erhalten: "Nun, wenn er keinen Einblick in die Struktur der Übereinstimmungen hat, ist es exponentielle Zeit." Die Frage ist, ob es einige bekannte Einblicke in die Struktur von BPP gibt, die eine effiziente ZPP-Simulation ermöglichen
Sasho Nikolov

1
@SashoNikolov: Es war nicht wirklich als tiefer Einblick gedacht. Nach dem Wortlaut der Frage schien es mir eine Grenze für die Migration zu CS.SE zu sein. Ich habe mich entschlossen, es wörtlich zu beantworten: Soweit wir wissen , ist die effizienteste erwartete Laufzeit von Las Vegas Machine, die eine Sprache L∈BPP akzeptiert, nicht viel besser als eine deterministische Maschine, die die Möglichkeiten von Brute-Force untersucht. Die Antworten, die besagen, dass es sich bei bestimmten Bedingungen möglicherweise um eine Polynomobergrenze handelt, sind ausgezeichnet und informativ, und ich stimme dafür. aber ich spreche die eigentliche Frage an.
Niel de Beaudrap

1
Ich denke, das ist eine nette Antwort (jetzt auch nach dem Bearbeiten besser lesbar). Wir haben kein bedingtes Ergebnis wie "P = ZPP impliziert P = BPP" oder "ZPP = BPP impliziert P = BPP", daher ist es immer noch möglich, dass wir BPP durch ZP-Algorithmen schneller simulieren können als mit deterministischen Algorithmen. Das Relativierungsergebnis scheint jedoch zu implizieren, dass dies durch keine Relativierungssimulation geschehen kann. Verstehe ich das richtig?
Kaveh
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.