Warum wirkt sich Zufälligkeit stärker auf Verkleinerungen aus als auf Algorithmen?


36

Es wird vermutet, dass Zufälligkeit die Leistung von Polynom-Zeit-Algorithmen nicht erweitert, das heißt, es wird vermutet , dass P=BPP gilt. Auf der anderen Seite scheint die Zufälligkeit eine ganz andere Wirkung auf Polynom Zeit haben Reduzierungen . Durch das bekannte Ergebnis Valiant und Vazirani, SAT reduziert sich auf USAT über randomisierte Polynomialzeitreduktion. Es ist unwahrscheinlich, dass die Reduktion derandomisiert werden könnte, da dies zu NP=UP , was als unwahrscheinlich erachtet wird.

Ich frage mich, was der Grund für diese asymmetrische Situation sein könnte: Bei probabilistischen Polynomzeitalgorithmen scheint eine Derandomisierung durchaus möglich zu sein, bei probabilistischen Polynomzeitreduzierungen jedoch nicht.


3
Ich denke, der Grund dafür ist, dass Zufälligkeit hilft, wenn die Berechnung interaktiv ist (z. B. um zu verhindern, dass ein anderer Spieler betrügt), und eine Reduzierung kann als eine sehr einfache Art der interaktiven Berechnung angesehen werden.
Kaveh

11
Welche Beweise gibt es dafür, dass NP nicht gleich UP ist?
Sasho Nikolov

Eine andere Situation, in der Zufälligkeit einen Unterschied zu machen scheint, sind "Wert-Orakel-Algorithmen". Während es zum Beispiel einen randomisierten 1/2 -Näherungsalgorithmus für eine uneingeschränkte submodulare Maximierung gibt, ist der bekannteste deterministische Algorithmus nur eine 1/3-Näherung. Es ist bekannt, dass die 1/2-Approximation optimal ist, und mindestens einer der Autoren vermutet, dass die 1/3-Approximation optimal ist.
Yuval Filmus

@Yuval, könntest du deinen Kommentar zu einer Antwort erweitern? Ich würde gerne eine längere Erklärung lesen.
Kaveh

4
Gute Frage!
Gil Kalai

Antworten:


28

Lassen Sie mich zunächst auf den speziellen Fall der Valiant-Vazirani-Reduktion eingehen. Ich hoffe, dies wird dazu beitragen, die allgemeine Situation zu klären.

Die Valiant-Vazirani-Reduktion kann auf verschiedene Arten betrachtet / definiert werden. Diese Reduktion wird „versuchen“ , um eine erfüllbar Boolesche Formel zur Karte zu einem einzigartig-erfüllbar F ' und ein unerfüllbar F zu einem unerfüllbar F ' . Alle Ausgabeformeln werden immer durch weiteres Einschränken von F erhalten , sodass die Unzufriedenheit immer erhalten bleibt. Die Reduktion kann entweder als Ausgabe eines einzelnen F ' oder als Ausgabe einer Liste von F ' 1 , ... , F ' t definiert werden . Im letzteren Fall, „Erfolg“ im Fall F FFFFFFF1,,Ft ist definiert als mitmindestens einemeindeutig erfüllbaren F ' i in der Liste. Nennen Sie diese beiden Varianten "Singleton-Reduktion" bzw. "Listen-Reduktion" (dies ist keine Standardterminologie).FSATFi

Der erste wichtige Punkt ist, dass die Erfolgswahrscheinlichkeit bei der Singleton-Reduktion recht gering ist, nämlich wobei n die Anzahl der Variablen ist. Die Schwierigkeiten bei der Verbesserung dieser Erfolgswahrscheinlichkeit werden in der Arbeit untersuchtΘ(1/n)n

"Kann die Isolationswahrscheinlichkeit von Valiant-Vazirani verbessert werden?" von Dell et al.

http://eccc.hpi-web.de/report/2011/151/#revision1

Bei der Listenreduktion kann die Erfolgswahrscheinlichkeit mit einer Liste mit Poly ( n ) -Größe groß gemacht werden, beispielsweise . (Man kann zum Beispiel die Singleton-Reduktion einfach viele Male wiederholen.)12n(n)

Nun ist es überhaupt nicht offensichtlich oder intuitiv, dass wir in der Lage sein sollten, eine Reduktion, die nur eine Erfolgswahrscheinlichkeit von hat, direkt zu derandomisieren . In der Tat gibt keines der Härte-gegen-Zufälligkeit-Ergebnisse Hypothesen an, unter denen wir dies in diesem Fall tun können. Es ist viel plausibler, dass die Listenreduzierung derandomisiert werden kann (mit einer etwas größeren Liste). Beachten Sie jedoch, dass dies nicht N P = U P implizieren würde : Unsere Ausgabeliste von Formeln kann viele eindeutig erfüllbare Formeln haben, und vielleicht einige mit vielen zufriedenstellenden Zuweisungen, und es scheint hoffnungslos, zu versuchen, eine eindeutig akzeptierende Berechnung über eine solche zu definieren Liste. 1/nNP=UP

Selbst wenn wir irgendwie eine Listenreduktion geben könnten, in der ein erfüllbares immer eine Liste F ' 1 , ... , F ' t induziert , in der die meisten F ' j ' s eindeutig erfüllbar sind, gibt es keinen klaren Weg, dies umzusetzen eine deterministische Singleton-Reduktion zur Isolierung. Die eigentliche zugrunde liegende Schwierigkeit besteht darin, dass wir keine "Näherungsmehrheitsoperation für eindeutig erfüllbare Formeln" kennen, dh eine Reduktion R ( F 1 , , F t ).FF1,,FtFjR(F1,,Ft)deren Ausgabe eindeutig erfüllbar ist, wenn die meisten ' s eindeutig erfüllbar sind, und nicht erfüllbar ist, wenn die meisten F ' j ' s nicht erfüllbar sind. Dies scheint auch ein allgemeines Phänomen zu sein: Reduktionen geben komplexere Objekte als Entscheidungsalgorithmen aus, und die Eigenschaften dieser Objekte sind schwerer zu überprüfen, sodass es schwieriger ist , viele dieser Objekte zu einem einzigen Objekt zu kombinieren , das einige Eigenschaften der Mehrheit übernimmt.FjFj

Für den Fall von Valiant-Vazirani erscheint es unter plausiblen Annahmen der Derandomisierung nicht einmal wahrscheinlich, dass wir in der Lage wären, zu erhalten, dh erfüllbare Formeln deterministisch auf erfüllbare Formeln mit poly ( n ) zu reduzieren. lösungen. Dies ist intuitiv darauf zurückzuführen, dass das Isolierungsverfahren keine Ahnung hat, ob die angegebene Lösungsmenge der Formel F auch nur eine grobe Größe hat .NP=FewP(n)F


1
Ich wünsche mir, dass jeder, der jemals etwas über Valiant-Vazirani gelernt hat, diese Antwort liest. Das Missverständnis, dass die Deregulierung von VV NP = UP implizieren würde, ist leider und hartnäckig, und dies gibt eine klare Diskussion über die damit verbundenen Probleme und Alternativen.
Joshua Grochow

13

In der Orakelwelt ist es einfach, Beispiele zu nennen, bei denen der Zufall uns viel mehr Macht verleiht. Betrachten Sie zum Beispiel das Problem, eine Null einer ausgeglichenen Booleschen Funktion zu finden. Ein randomisierter Algorithmus erreicht die Verwendung von -Abfragen mit konstanter Erfolgswahrscheinlichkeit, während jeder deterministische Algorithmus mindestens n / 2 Abfragen erfordert .O(1)n/2

Hier ist eine andere Situation, in der vermutet wird , dass Randomisierung hilft. Angenommen, wir möchten eine monotone submodulare Funktion über eine Matroid-Einschränkung maximieren. Es gibt zwei verschiedene Algorithmen, die eine Approximation ergeben, und dies ist in diesem Modell durch ein Ergebnis von Vondrák optimal. Beide Algorithmen müssen eine Funktion der Form E x X f ( x ) berechnen , wobei X gilt11/eExXf(x)Xist eine Distribution mit exponentieller Unterstützung. Die exakte Berechnung dieser Funktion ist zu kostspielig, kann jedoch durch Stichproben angenähert werden. Das Ergebnis ist ein randomisierter Algorithmus. Im Gegensatz dazu liefert der bekannteste deterministische Algorithmus, der Greedy-Algorithmus, eine Approximation.1/2

Eine ähnliche Situation tritt bei einer uneingeschränkten submodularen Maximierung auf (hier ist die Funktion nicht notwendigerweise monoton). Der aktuelle Durchbruchsalgorithmus liefert eine optimale Approximation, seine deterministische Version liefert jedoch nur eine 1 / 3- Approximation. Hier manifestiert sich die Randomisierung entweder genauso wie im monotonen Fall oder (in einer anderen Version des Algorithmus), indem einige zufällige Entscheidungen getroffen werden.1/21/3

Einer der Autoren der letztgenannten Papier Mutmaßungen , dass ist das Beste , was ein deterministischer Algorithmus erreichen können, und wir können in ähnlicher Weise Vermutung , dass 1 / 2 ist die beste, die im vorherigen Problem gelöst werden kann. Wenn diese Vermutungen zutreffen, ist dies eine sehr natürliche Situation, in der Randomisierung nachweislich hilft.1/31/2

Vor kurzem haben Dobzinski und Vondrák gezeigt, wie man untere Schranken von Wert-Orakeln (für randomisierte Algorithmen) in Härteergebnisse umwandelt, abhängig von NP, die sich von RP unterscheiden (der Hauptbestandteil ist die Listendecodierung). Wir sollten erwähnen, dass die Transformation auf der spezifischen Methode beruht, die verwendet wird, um die unteren Grenzen des Orakels zu beweisen. Vielleicht ist es richtig, dass sich deterministische Wert- oder Orakeluntergrenzen auch in Härteergebnissen niederschlagen.


Ich frage mich, ob das Volumenschätzungsproblem unter dieses "Wertorakel" -Modell fällt. In diesem Modell erhalten Sie ein Zugehörigkeitsorakel für das konvexe Objekt, dessen Volumen Sie schätzen, und es ist allgemein bekannt, dass dies nicht deterministisch auf einen Exponentialfaktor approximiert werden kann, sondern durch einen randomisierten Algorithmus beliebig gut approximiert werden kann.
Suresh Venkat

12

NPUPBPPP

Und doch existieren diese Reduktionen verschiedener Kräfte. Tatsächlich hat eine Rechenressource wie die Zufälligkeit nicht notwendigerweise eine feste Menge an Rechenleistung, die entweder "signifikant" oder "nicht signifikant" ist.

LPBPPBQPPPSPACENPNP and use the answer in any way aside from (iterated) conjunctive and disjunctive truth-table reductions — imagining such a class as being embodied by a machine with a well-defined state which we can enquire into does not lead us badly astray.

If we take this position, we can ask what happens if we provide these computational models M with extra facilities such as randomness or nondeterminism. (These extra facilities don't necessarily preserve the property of being interpretable by a machine model, especially in the case of nondeterminism, but they do give rise to 'new' classes.) If this extra facility gives the model more power, giving rise to a class C, this is in effect equivalent to saying that there is a reduction from C to M using that facility, e.g. a randomized reduction in the case of randomness.

The reason why I'm describing this in terms of classes which are low for themselves is that if we take seriously that they are "possible models of computation in another world", your question about randomized reductions corresponds to the fact that it seems that randomness dramatically increases the power of some models but not others.

In place of randomized reductions from NP to UP, we can observe that there is a randomized reduction from all of PH to the class BPP — which is obtained if you add bounded-error randomness to P — by Toda's Theorem. And your question can then be posed as: why does this happen? Why should some machines gain so much from randomness, and others so little? In the case of PHBPP, it seems as though the modulo-2 nondeterminism entailed in the definition of P (essentially a counting quantifier modulo 2) catalyses the randomness entailed in bounded error (essentially a counting quantifier with a promise gap) to give us the equivalent of an entire unbounded hierarchy of existential and universal quantifiers. But this does not mean that we suppose that P is itself approximately as powerful as the entire polynomial hierarchy, does it? Neither the resources of bounded-error randomness nor modulo-2 counting are thought to be nearly that powerful. What we observe is that together, these two quantifiers are that powerful.

There's also a question of whether we can really say that randomness is weak in absolute terms, compared say to nondeterminism: if randomness is so weak, and if we're so convinced that BPP=P, why can we only bound BPPΣ2pΔ2p in the polynomial hierarchy, using two levels of indeterminism, let alone one? But this may just be a result that, while we suspect that randomness added to simple polynomial-time computation doesn't give much power, we have no idea of how to simulate that additional power using only a small amount of nondeterminism of the sort involved in NP and coNP. (Of course, it's difficult to prove anything nontrivial in complexity theory; but that again is just the statement that these different sorts of resources are difficult to compare on a scale!)

There is no strong argument that I can give to defend why this should be the case, other than to observe that so far it simply is the case; and that if you think that PH doesn't collapse, is different from P, and that BPPP, then you should consider the possibility that facilities such as randomness and nondeterminism can have powers which are not easily comparable to one another, and which can synergize or catalyse one another to give computational power that neither one would plausibly have on its own. The hypothesis that BPP=P is not that "randomness has no power", but that randomness alone (or rather, supplemented only by polynomial time computation and provided to an otherwise deterministic computational model) is not powerful. But this does not mean that there can be no power in randomness, which may be catalysed by other computational resources.


"aside from a disjunctive truth-table reduction —" what about other monotone truth-table reductions, such as a conjunctive truth-table reduction?

@RickyDemer: Quite right. At the time I wrote this, I was working on certain nondeterministic classes related to NL, for which closure under d.t.t- and c.t.t.-reductions both would have implied closure under complements, and so I omitted mention of c.t.t.; but the same is clearly not true for NL or NP themselves. I'll edit my answer.
Niel de Beaudrap

@NieldeBeaudrap This is a very good answer as well.
Tayfun Pay
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.