Die unvernünftige Kraft der Uneinheitlichkeit


33

Aus der Sicht des gesunden Menschenverstandes ist es leicht zu glauben, dass das Hinzufügen von Nichtdeterminismus zu seine Potenz erheblich erweitert, dh, ist viel größer als . Schließlich erlaubt der Nichtdeterminismus einen exponentiellen Parallelismus, der zweifellos sehr mächtig erscheint. N P PPNPP

Wenn wir dagegen \ mathsf {P} nur um die Uneinheitlichkeit ergänzen Pund P/poly , ist die Intuition weniger klar (vorausgesetzt, wir schließen nichtrekursive Sprachen aus, die in P/poly ). Es ist zu erwarten, dass das bloße Zulassen unterschiedlicher Polynomzeitalgorithmen für unterschiedliche Eingabelängen (ohne den rekursiven Bereich zu verlassen) eine weniger leistungsfähige Erweiterung darstellt als die exponentielle Parallelität im Nichtdeterminismus.

Interessanterweise sehen wir jedoch die folgende kontraintuitive Situation , wenn wir diese Klassen mit der sehr großen Klasse vergleichen . Wir wissen , dass richtig enthält , was überraschend ist es nicht. (Schließlich erlaubt eine doppelt exponentielle Parallelität.) Andererseits können wir derzeit .N E X PNEXPNEXP N E X PNPNEXPNEXPP/poly

In diesem Sinne macht die Ungleichmäßigkeit, wenn sie zur Polynomzeit addiert wird, sie möglicherweise extrem mächtig, potenziell mächtiger als der Nichtdeterminismus. Es könnte sogar so weit gehen, eine doppelt exponentielle Parallelität zu simulieren ! Auch wenn wir glauben, dass dies nicht der Fall ist, lässt die Tatsache, dass dies derzeit nicht ausgeschlossen werden kann, dennoch darauf schließen, dass Komplexitätstheoretiker hier mit "mächtigen Kräften" zu kämpfen haben.

Wie würden Sie einem intelligenten Laien erklären, was sich hinter dieser "unvernünftigen Macht" der Uneinheitlichkeit verbirgt?


16
Die Schwierigkeit, die Ungleichmäßigkeit zu verstehen (und die unteren Grenzen des allgemeinen Stromkreises zu beweisen), bedeutet nicht zwangsläufig, dass die Ungleichmäßigkeit mächtig ist (in dem Sinne, dass Sie sie zur Lösung interessanter Probleme verwenden können).
Kaveh

4
Ich glaube nicht, dass jemand an oder sogar an glaubt . Die Tatsache, dass diese Fragen offen bleiben, ist eher eine Aussage über unsere peinliche Unfähigkeit, Schaltungsuntergrenzen zu beweisen. N PP / p o l yNEXPP/polyNPP/poly
Thomas

8
@Thomas: Ich werde nicht davon ausgehen, für jemand anderen zu sprechen, aber ich werde sagen, dass ich mindestens einen sehr angesehenen Forscher kenne, der tatsächlich davon dass . EXPP/poly
Joshua Grochow

2
@Thomas: Nicht genau, aber ich denke, es geht darum, wie wenig wir Ungleichmäßigkeiten verstehen. Nach allem, was wir wissen (und wie Kolmogorov vermutet, siehe cstheory.stackexchange.com/a/22048/129 ), hat P Ckts der Größe . Als weiteres Beispiel scheint es wenige (wenn überhaupt) natürliche Probleme in , die weder spärlich noch in BPP sind ( cstheory.stackexchange.com/questions/1662/… ). Und doch würde man unter Berücksichtigung von ckts denken, dass bedeutend leistungsfähiger ist als Randomisierung + Tabellensuche. P / p o l yO(n)P/polyP/poly
Joshua Grochow

6
Wenn wir @thomas nicht nachweisen können, dass NEXP nicht in P / poly enthalten ist, bedeutet dies, dass es eine "unvernünftige Potenz der Ungleichmäßigkeit" gibt.
Lance Fortnow

Antworten:


33

Eine kurze Antwort ist, dass dies nicht das erste ist, was ich einem Laien über die Komplexitätstheorie erklären möchte! Um die Idee der Ungleichförmigkeit überhaupt zu würdigen und sich von Nichtdeterminismus zu unterscheiden, müssen Sie mit den Definitionen von Komplexitätsklassen weiter unten im Unkraut sein, als viele Menschen bereit sind, dies zu tun.

Allerdings ist eine Perspektive, die mir bei der Erklärung von P / poly für Studenten hilfreich war, dass Ungleichmäßigkeit wirklich bedeutet, dass Sie eine unendliche Folge von immer besseren Algorithmen haben können, wenn Sie zu immer größeren Eingabelängen wechseln. In der Praxis wissen wir zum Beispiel, dass der naive Matrixmultiplikationsalgorithmus am besten für Matrizen bis zu einer Größe von etwa 100x100 funktioniert, und dann wird die Strassen-Multiplikation irgendwann besser, und die neueren Algorithmen werden nur für astronomisch große Matrizen besser würde in der Praxis niemals entstehen. Was wäre, wenn Sie die magische Fähigkeit hätten, den besten Algorithmus für jeden Bereich von n zu finden, mit dem Sie gerade gearbeitet haben?

Sicher, das wäre eine seltsame Fähigkeit, und alles in allem wahrscheinlich nicht so nützlich wie die Fähigkeit, NP-vollständige Probleme in polynomialer Zeit zu lösen. Aber genau genommen wäre es eine unvergleichliche Fähigkeit: Es ist keine, die Sie automatisch erhalten würden, selbst wenn P = NP. In der Tat können Sie erfundene Beispiele für nicht berechenbare Probleme konstruieren (z. B. hält die n- te Turing-Maschine bei 0 n als Eingabe an ?), Die Sie mit dieser Fähigkeit lösen können. Das ist also die Kraft der Ungleichmäßigkeit.

Um zu verstehen, warum man diese seltsame Kraft in Betracht zieht, müsste man wahrscheinlich etwas über das Streben nach dem Nachweis der unteren Schranken der Schaltung und die Tatsache sagen, dass vom Standpunkt vieler unserer Techniken der unteren Schranken die Gleichförmigkeit seltsam erscheint zusätzliche Bedingung, die wir fast nie brauchen.


2
Ich mag das Argument "unendliche Folge von immer besseren Algorithmen" wirklich. Eigentlich habe ich nach solchen Argumenten gesucht, die hilfreich sind, um Studenten das große Ganze zu erklären. Wie würde dieses Argument jedoch zutreffen, wenn durch ? Für dieselbe ursprüngliche Frage erneut gestellt werden, da wir derzeit auch nicht von trennen . B P P B P P N E X P B P PP/polyBPPBPPNEXPBPP
Andras Farago

7
BPP ist viel einfacher zu motivieren! Das ist nur ein Versuch, die Macht der Randomisierung zu modellieren, die (im Gegensatz zu Ungleichmäßigkeiten) in der Praxis ständig angewendet wird. (Im Übrigen habe ich jedoch vergessen zu erwähnen: Eine andere Art, Ungleichmäßigkeiten zu motivieren, wäre die Kryptographie. Sie könnten darauf hinweisen, dass Gegner den Luxus haben, alle ihre Angriffsressourcen auf die von Ihnen als Standard gewählte Schlüssellänge zu optimieren Es ist besser, ein Kryptosystem zu haben, das Ihrer Meinung nach gegen ungleichmäßige Angreifer in dieser festgelegten Länge und nicht nur gegen einheitliche Angreifer sicher ist.)
Scott Aaronson

1
Ich stimme voll und ganz zu, dass einfacher zu motivieren ist. Was jedoch nicht klar ist, ist : Was verleiht solche Kraft, dass wir derzeit nicht ausschließen können, dass es sogar die doppelt exponentielle Parallelität von simulieren ? Da sich nur durch die Zufälligkeit von unterscheidet und aus gutem Grund vermutet wird, dass die Zufälligkeit hier machtlos ist (dh ), erscheint mir dies als eine merkwürdige Situation. Ich suche ein "philosophisches Verständnis" der Situation, jenseits der offensichtlichen Tatsache, dass die Werkzeuge fehlen, um zu beweisen . B P P N E X P B P P P P = B P P N E X P B P PBPPBPPNEXPBPPPP=BPPNEXPBPP
Andras Farago

2
Aber was , wenn es wirklich ist nur die Tatsache , dass die Werkzeuge fehlen? Wir haben die Hierarchiesätze, mit denen wir beweisen können, dass mehr von derselben Ressource Ihnen mehr Macht verleiht (z. B. ), und wenn wir uns nicht auf einen Hierarchiesatz reduzieren können, stecken wir normalerweise fest. Dies ist ein allgemeines Problem, das in der gesamten Komplexitätshierarchie auftritt und nichts Besonderes für . B P PPEXPBPP
Scott Aaronson

28

Hier ist ein "glattes" Argument, das ich kürzlich zur Verteidigung der Behauptung gehört habe, dass uneinheitliche Rechenmodelle leistungsfähiger sein sollten, als wir vermuten. Einerseits wissen wir aus dem Zeithierarchiesatz, dass es Funktionen gibt, die in der Zeit berechenbar sind, die beispielsweise in der Zeit nicht berechenbar sind . Andererseits kann nach dem Satz von Lupanov jede boolesche Funktion vonO ( 2 n )O(22n)O(2n) Eingängen durch eine Schaltung der Größe ( 1 + o ( 1 ) ) 2 n / n berechenbar. Wenn wir also behaupten, dass eine Ungleichmäßigkeit nicht viel Macht gibt, dann ist das S I Z En(1+o(1))2n/n sollte wie verhalten D T I M E ( f ( n ) O ( 1 ) ) , dann sollte dieser abrupt Anspruch Anschlaghaltenwenn f ( n ) wird 2 O ( n ) . Aber dieses Verhalten - zwei Komplexitätsmaße gehen Hand in Hand, bis plötzlich einer von ihnen allmächtig wird - erscheint willkürlich und etwas unnatürlich.SIZE(f(n))DTIME(f(n)O(1))f(n)2O(n)

NPP/poly


1
Sehr interessant! Dies zeigt deutlich, dass unser Verständnis des uneinheitlichen (Schaltungs-) Berechnungsmodells noch weit davon entfernt ist, vollständig zu sein.
Andras Farago

4
Ohne zu kommentieren, ob ein solcher Zusammenbruch wahrscheinlich ist: Ist es ein plötzlicher Stopp der Rechenleistung auf der zweiten Ebene, wenn dies genau ausreicht, um beide Arten von Quantifizierern zu haben?
Niel de Beaudrap

@NieldeBeaudrap Sehr interessanter Punkt. Natürlich ist all dies (einschließlich der Spekulationen in meiner Antwort) mehr Theologie als Mathematik, aber es macht Spaß zu spekulieren.
Sasho Nikolov

3
@Sasho: Es ist nicht Theologie oder sogar Meinung: Es ist Protomathematik, nicht wahr? Es geht darum, die möglicherweise relevanten Ideen zu erfassen und für die Intuition abzuwägen. Nicht viel mehr zu tun, wenn man sich im Wald verirrt, aber es ist produktiver, als zum Beispiel Geistergeschichten zu erzählen. :-)
Niel de Beaudrap

10

P/polyNPPNP

P/polyNP

NP

NPP/poly

Ein kritischer Punkt für ein gutes Verständnis, der meiner Meinung nach auch beim ersten Unterrichten des Fachs häufig vorkommt, ist die Feststellung, dass Ratschläge und "Hinweise" (dh Zertifikate) verschiedene Dinge sind und wie sie sich unterscheiden.


10

Für mich ist das deutlichste Beispiel für die Kraft der Ungleichmäßigkeit, dass eine entsprechend gepolsterte Version des Halteproblems bereits in P / 1 enthalten ist. Ein einziger Ratschlag reicht dann aus, um diese Sprache mit einem einfachen TM zu entscheiden, das einfach den Ratschlag zurückgibt.

Natürlich bedeutet das Auffüllen einer unentscheidbaren Sprache um einen exponentiellen Betrag, dass es nicht "moralisch" in P / Poly ist. Dies zeigt jedoch, dass man vorsichtig sein muss, wenn man Ungleichmäßigkeiten zulässt.


3

Ich habe den Eindruck, dass das eigentliche Problem hier die unzumutbare schwere Beweislast ist, nicht die unzumutbare Kraft der Uneinheitlichkeit. Wie die Antworten von Chazisop und András Salamon bereits belegen, sind unabdingbare Sprachen auch in sehr eingeschränkten, nicht einheitlichen Sprachen berechenbar, da auf die Beweislast vollständig verzichtet wurde.

2nnnnn2nexp(O(n))=exp(nlog(2)+O(n))=exp(O(n))

nNEXP

P/polyNPnP/polyPNPP/poly) gilt immer noch, aber diese Aussage ist weniger interessant als das echte Karp-Lipton-Theorem.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.