Gibt es Erhaltungssätze in der Komplexitätstheorie?


46

Lassen Sie mich mit einigen Beispielen beginnen. Warum ist es so trivial zu zeigen, dass CVP in P ist, aber so schwer zu zeigen, dass LP in P ist? während beide P-vollständige Probleme sind.

Oder nimm die Ursprünglichkeit. Es ist einfacher, Komposite in NP zu zeigen als Primzahlen in NP (für die Pratt erforderlich war) und schließlich in P. Warum musste diese Asymmetrie überhaupt gezeigt werden?

Ich kenne Hilbert, brauche Kreativität, Beweise sind in NP usw. Aber das hat mich nicht davon abgehalten, das Gefühl zu haben, dass es mehr gibt, als man denkt.

Gibt es einen quantifizierbaren Begriff von "Arbeit" und gibt es ein "Erhaltungsgesetz" in der Komplexitätstheorie? Das zeigt zum Beispiel, dass CVP und LP, obwohl beide P-vollständig sind, ihre Komplexität an "verschiedenen Stellen" verbergen - eine in der Reduktion (Ist CVP einfach, weil die ganze Arbeit in der Reduktion erledigt wird?) Und die andere in der Ausdruckbarkeit der Sprache.

Ist Ihnen noch jemand unwohl und mit ein paar Einsichten? Oder zucken wir mit den Schultern und sagen / akzeptieren wir, dass dies die Art der Berechnung ist?

Dies ist meine erste Frage an das Forum: Daumen drücken.

Edit: CVP ist Circuit Value Problem und LP ist Linear Programming. Vielen Dank, Sadeq, für den Hinweis auf eine Verwirrung.


7
Zuerst verwechselte ich CVP mit dem Closest Vector Problem (das NP-hart ist). Dann bemerkte ich, dass es das Schaltkreiswertproblem ist . Ich dachte, es wäre hilfreich, dies zu erwähnen.
MS Dousti

5
interessante Frage. Ich bin mir nicht sicher, ob es eine interessante Antwort gibt :)
Suresh Venkat

7
Nur eine Bemerkung: Die Schwierigkeit, NP die Zugehörigkeit zu beweisen, ist keine Eigenschaft einer Sprache, sondern eine Eigenschaft einer Beschreibung einer Sprache. Zum Beispiel ist ein gewisser Aufwand erforderlich, um zu beweisen, dass die Menge der Primzahlen in NP ist, aber es ist trivial, dass die Menge der Ganzzahlen mit einem Pratt-Zertifikat in NP ist.
Tsuyoshi Ito

2
Sind Zeit-Raum-Abwägungen nicht als Erhaltungsgesetz im Sinne des Wortlauts dieser Frage anwendbar?
Maverick Woo

1
Charles Bennetts Begriff der Computertiefe (ursprünglich "logische Tiefe") kann einen Teil der Intuition von "Arbeit erfassen, die erforderlich ist, um eine Komplexitätstatsache zu demonstrieren".
Aaron Sterling

Antworten:


13

Diese Frage ist mir schon oft in den Sinn gekommen.

Ich denke, ein Ort, an dem man suchen sollte, ist die Informationstheorie. Hier ist eine Spekulation von mir. Wenn ein Problem vorliegt, können wir möglicherweise den eingegebenen Informationen und den vom Algorithmus empfangenen Informationen einen Entropiewert zuweisen. Wenn wir das tun könnten, gäbe es eine Mindestmenge an Informationsgewinn, die ein Algorithmus benötigt, um dieses Problem zu lösen.

Es gibt eine verwandte Sache, die ich herausfinden wollte. In einigen NP-vollständigen Problemen finden Sie eine eingeschränkte Version in P; Wenn Sie beim Hamilton-Pfad angeben, dass der Graph eine DAG ist, gibt es einen p-Zeit-Algorithmus, um ihn zu lösen. Bei anderen Problemen wie TSP gibt es oft P-Zeit-Algorithmen, die sich dem Optimum annähern. Für eingeschränkte p-Zeit-Algorithmen scheint es mir eine proportionale Beziehung zwischen den angenommenen Additionsinformationen und der Verringerung der Laufzeitkomplexität zu geben. Im Falle des TSP gehen wir nicht von zusätzlichen Informationen aus, sondern lockern die Genauigkeit, von der ich einen ähnlichen Effekt auf jede Art von algorithmischem Informationsgewinn erwarte.

Hinweis zu Naturschutzgesetzen

In den frühen 1900er Jahren gab es kaum eine bekannte deutsch-amerikanische Mathematikerin namens Emily Noether. Unter anderem wurde sie von Einstein und Hilbert als die bedeutendste Frau in der Geschichte der Mathematik beschrieben. 1915 veröffentlichte sie den heutigen Noether's First Theorem . Der Satz befasste sich mit physikalischen Erhaltungsgesetzen und besagte, dass alle Erhaltungsgesetze im physikalischen System eine entsprechende differentielle Symmetrie aufweisen. Die Erhaltung des Drehimpulses ergibt sich aus einer Rotationssymmetrie im Raum. Die Erhaltung des linearen Impulses ist eine Translation im Raum. Die Erhaltung der Energie ist eine Translation in der Zeit. Unter der Voraussetzung, dass es ein Gesetz zur Erhaltung der Komplexität im formalen Sinne gibt, müsste es eine entsprechende differentielle Symmetrie in einer langragischen Funktion geben.


2
+1 Tolle Antwort! Ich habe oft ähnliche Überlegungen angestellt (@MattRS: senden Sie mir eine E-Mail). Übrigens glaube ich nicht, dass Emmy Noether "wenig bekannt" ist, aber im Gegenteil, obwohl sie in TCS vielleicht nicht gut bekannt ist. Noethers erster Satz ist den Physikern gut bekannt, und Noetherringe sind ein zentrales Untersuchungsobjekt in der kommutativen Algebra und der algebraischen Geometrie. Einige andere wichtige Theoreme, hauptsächlich in diesen Bereichen, tragen ebenfalls ihren Namen.
Joshua Grochow

Ja, das habe ich gemeint. nicht bekannt zu comp sci. Ich dachte immer, abstrakte Algebra sollte in CS weiter verbreitet werden.
MattRS

Auch wenn dieses Argument überzeugend ist, frage ich mich, ob es mit vielen Problemen mit einer scharfen Annäherungsschwelle vereinbar ist. (Damit meine ich das Problem, dass das Erreichen eines Approximationsfaktors einfach ist, aber für alle schwierig ist .) Warum besteht die Beziehung zwischen der erforderlichen Genauigkeit und dem algorithmischen Informationsgewinn? so dramatisch diskontinuierlich? α>1αϵϵ>0
Srivatsan Narayanan

6

Ich denke, der Grund liegt in dem logischen System, das wir verwenden. Jedes formale System hat eine Reihe von Axiomen und eine Reihe von Inferenzregeln .

Ein Beweis in einem formalen System ist nur eine Folge von Formeln, so dass jede Formel in der Folge entweder ein Axiom ist oder aus früheren Formeln in der Folge durch Anwendung einer Folgerungsregel erhalten wird. Ein Theorem des formalen Systems ist nur die letzte Formel in einem Beweis.

Die Länge des Beweises eines Theorems hängt, vorausgesetzt, es ist im logischen System entscheidbar, vollständig von den Axiomensätzen und Inferenzregeln ab .

Betrachten Sie zum Beispiel die Aussagenlogik, für die es mehrere Charakterisierungen gibt: Frege (1879), Nicod (1917) und Mendelson (1979). ( Weitere Informationen finden Sie in dieser kurzen Umfrage .)

Das letztere System (Mendelson) hat drei Axiome und eine Inferenzregel (modus ponens). Angesichts dieser kurzen Beschreibung ist es wirklich schwierig , selbst die trivialsten Theoreme zu beweisen, sagen wir . Hier wird durch harte , ich meine die minimale Länge des Beweises hoch ist.φφ

Dieses Problem wird als Beweiskomplexität bezeichnet . Um Beame & Pitassi zu zitieren :

Eine der grundlegendsten Fragen der Logik lautet: Wie lang ist bei einer allgemeingültigen Aussage (Tautologie) der kürzeste Beweis der Aussage in einem normalen axiomatischen Beweissystem? Die aussagenlogische Version dieser Frage ist in der Informatik sowohl für die Beweisführung als auch für die Komplexitätstheorie von besonderer Bedeutung. Wichtige algorithmische Fragestellungen sind: Gibt es einen effizienten Algorithmus, der einen Beweis für eine Tautologie liefert? Gibt es einen effizienten Algorithmus, der den kürzesten Beweis für eine Tautologie liefert? Solche Fragen des Beweises und der Komplexität von Theoremen inspirierten Cooks wegweisende Arbeit zur NP-Vollständigkeit, insbesondere mit dem Titel „Die Komplexität von Theoremen-Beweisverfahren“, und wurden von Gödel in seinem inzwischen bekannten Brief an von Neumann noch früher in Betracht gezogen.


6

Ich habe neulich über dieselbe Frage nachgedacht, als ich einige von Feynmans Vorlesungen über Physik nachgespielt habe, und bin zu Lektion 4 über Energieeinsparung gekommen. In der Vorlesung verwendet Feynman das Beispiel einer einfachen Maschine, die (über ein Hebelsystem, eine Riemenscheibe oder was auch immer) ein Gewicht von einer Einheit um einen Abstand x absenkt und damit ein zweites Gewicht von 3 Einheiten anhebt. Wie hoch kann das Gewicht angehoben werden? Feynman macht die Beobachtung, dass wir, wenn die Maschine umkehrbar ist, nichts über den Mechanismus der Maschine wissen müssen - wir können sie wie eine Black Box behandeln - und das Gewicht immer um die maximal mögliche Entfernung heben ( x / 3 in diesem Fall).

Hat dies ein Analogon in der Berechnung? Die Idee der reversiblen Berechnung erinnert an die Arbeit von Landauer und Bennett, aber ich bin mir nicht sicher, ob dies der Sinn des Begriffs ist, an dem wir interessiert sind. Wenn wir einen Algorithmus für ein optimales Problem haben, wird intuitiv keine verschwendete "Arbeit" mit dem Mischen von Bits erledigt. während ein Brute-Force-Ansatz für dasselbe Problem die CPU-Zyklen nach links und rechts wegwirft. Ich stelle mir jedoch vor, dass man für jeden Algorithmus eine physikalisch reversible Schaltung konstruieren könnte.

Ich denke, der erste Schritt bei der Annäherung an ein Erhaltungsgesetz für die rechnerische Komplexität besteht darin, genau herauszufinden, was erhalten werden sollte. Raum und Zeit sind wichtige Messgrößen, aber es ist aus dem Vorhandensein von Raum / Zeit-Kompromissen klar, dass keines für sich als Maß dafür, wie viel "Arbeit" von einem Algorithmus erledigt wird, angemessen sein wird. Es wurden andere Metriken wie TM-Kopfumkehrungen oder Bandzellenkreuzungen verwendet. Keines davon scheint wirklich unserer Vorstellung von der Menge an "Arbeit" zu entsprechen, die zur Durchführung einer Berechnung erforderlich ist.

Die Kehrseite des Problems ist, herauszufinden, in was diese Arbeit umgewandelt wird. Was genau haben Sie gewonnen, nachdem Sie die Ausgabe eines Programms erhalten haben?


3

Einige Beobachtungen, die auf das Bestehen eines Naturschutzgesetzes hindeuten:

Wenn wir berechenbare Reduktionen für die Polynomzeit (oder den Log-Raum) als Transformationen zwischen Rechenproblemen betrachten, legen die folgenden Definitionen bekannter Komplexitätsklassen die Existenz einer konservierten Eigenschaft unter "effizienten" Transformationen nahe. Unter der Annahme von scheint "Härte" die konservierte Eigenschaft zu sein.<pPNP

P={L|L<pHornSAT}

NP={L|L<p3SAT}

CoNP={L|L¯<p3SAT}

NPC={L|L<p3SAT,3SAT<pL}

PC={L|L<pHornSAT,HornSAT<pL}

EDIT : ist genauer definiert als was darauf hindeutet, dass die Härte von Problemen in während der Komplementoperation unveränderlich ist, während nicht bekannt ist, dass die Komplementation die Härte von Problemen bewahrt (es sei denn, ).P = { L | L < p H o r n S A T , ˉ L < p H o r n S A T } P N P P = N PPP={L|L<pHornSAT,L¯<pHornSAT}PNPP=NP


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.