Polynomialzeit-Algorithmen mit großem Exponenten / großer Konstante


59

Kennen Sie sinnvolle Algorithmen, die in Polynomialzeit laufen (Eingangslänge + Ausgangslänge), deren asymptotische Laufzeit im gleichen Maß aber einen wirklich großen Exponenten / Konstanten hat (zumindest dort, wo die nachgewiesene Obergrenze für die Laufzeit in liegt)? diese Weise)?


3
Siehe mathoverflow.net/questions/65412 : "Schlechtester bekannter Algorithmus in Bezug auf Big-O oder genauer Big-Theta." Ich habe dort eine Antwort gepostet.
Joseph O'Rourke

4
Es gibt den LOGSPACE-Algorithmus von Reingold für die Konnektivität (siehe eine Frage zur zeitlichen Komplexität ), aber bezweifle, dass dies in dem Sinne sinnvoll ist, wie Sie es hier meinen ...
Janne H. Korhonen,

1
@ Joseph ORourke: Ich habe gerade das "fette Rechteck" -Papier auf meinem Schreibtisch!
Aaron Sterling

3
Obwohl es sich bei dem um eine legitime Berechnung handelte (dynamisches Programmieren pumpt es auf), habe ich es in der Konferenzversion als einen Scherz aufgenommen , einen Scherz, der in der Journalversion entfernt wurde. n42
Joseph O'Rourke

9
Die Erkennung perfekter Graphen erfolgt in , und ein Durchbruch scheint erforderlich zu sein, um dies zu verbessern. O(|V(G)|9)
András Salamon

Antworten:


39

Algorithmen, die auf dem Regularitäts-Lemma basieren, sind gute Beispiele für Polynom-Zeit-Algorithmen mit schrecklichen Konstanten (entweder im Exponenten oder als führende Koeffizienten).

Das Regularitätslemma von Szemeredi besagt, dass Sie in jedem Graphen auf Eckpunkten die Eckpunkte in Mengen aufteilen können, bei denen die Kanten zwischen Paaren von Mengen "pseudozufällig" sind (dh die Dichten ausreichend großer Teilmengen sehen aus wie Dichten in einem Zufallsgraphen). . Dies ist eine Struktur, mit der man sehr gut arbeiten kann. Infolgedessen gibt es Algorithmen, die die Partition verwenden. Der Haken ist, dass die Anzahl der Mengen in der Partition ein exponentieller Turm im Parameter der Pseudozufälligkeit ist (siehe hier: http://en.wikipedia.org/wiki/Szemer%C3%A9di_regularity_lemma ).n

Einige Links zu Algorithmen, die auf dem Regelmäßigkeits-Lemma basieren, finden Sie unter: http://www.cs.cmu.edu/~ryanw/regularity-journ.pdf


2
Guter Punkt! Allerdings ist mir kein Rechenproblem bekannt, bei dem es eine entsprechende Untergrenze des Exponententurms gibt. Gowers hat eine solche Untergrenze für das Regelmäßigkeits-Lemma selbst bewiesen, aber ich kenne kein Berechnungsproblem, wo dies zutrifft.
Arnab

3
Ich glaube, dass die von Chazelle in diesem Artikel ( arxiv.org/abs/0905.4241 ) beschriebenen Beflockungsalgorithmen eine optimale Konvergenz (dh untere Schranken) aufweisen, die ein Turm aus zwei ist
Suresh Venkat

In einem kürzlich erschienenen Artikel ( eccc.hpi-web.de/report/2014/018 ) zeige ich einige andere Algorithmen, die ein (arithmetisches) Regularitätslemma verwenden, dessen riesige Konstanten durch die O () - Notation verborgen sind.
Arnab

55

Neuigkeiten von SODA 2013 : Das Problem der maximalen Bisektion ist in etwa Zeit auf einen Faktor von 0,8776 genau zu lösen .O(n10100)



34

Hier ist ein aktuelles Ergebnis von FUN 2012, Picture-Hanging Puzzles von Erik D. Demaine, Martin L. Demaine, Yair N. Minsky, Joseph SB Mitchell, Ronald L. Rivest und Mihai Patrascu.

Wir zeigen, wie Sie ein Bild aufhängen, indem Sie ein Seil um n Nägel wickeln und dabei eine Polynomzahl von Drehungen erstellen, sodass das Bild immer dann abfällt, wenn k der n Nägel entfernt werden. Das Bild bleibt hängen, wenn weniger als k Nägel entfernt werden.

O(n43737)


15
(618)#gates in an AKS sorting network




16

n120

O(n6log(nU))U


Ich erhalte eine Fehlermeldung von IEEE, wenn ich Ihrem Link folge, aber ich gehe davon aus, dass Sie sich auf Thorups FOCS'98-Artikel "Map graphs in polynomial time" beziehen.
David Eppstein

1
Ich meine das Papier, und es wird gut für mich geladen.
AdrianN

arbeitet für mich von der U.
Suresh Venkat

12

Sandhaufen-Vergänglichkeitsproblem

Betrachten Sie den folgenden Prozess. Nehmen Sie eine dicke Fliese und lassen Sie Sandpartikel kornweise darauf fallen. Nach und nach bildet sich ein Haufen, und dann rutscht ein großer Teil des Sandes von den Fliesenrändern ab. Wenn wir nach einer bestimmten Zeit weiterhin Sandpartikel hinzufügen, wird die Konfiguration des Haufens wiederholt. Danach wird die Konfiguration wiederkehrend, dh es wird ein Zustand wiederholt, der zuvor gesehen wurde.

n×n

n

In SODA '07 haben László Babai und Igor Gorodezky bewiesen, dass diese Zeit polynomisch begrenzt ist, aber ..

Bildbeschreibung hier eingeben

O(n7)

Diese Antwort hätte etwas besser ausgesehen, wenn sie nicht verbessert worden wäre :)








-3

O(2n)n(n1)(n2)(n3)O(nc)c(nc)cElemente der Matrix ändern und auf resultierende Dimensionsreduzierung prüfen. Dies ist nicht völlig überraschend, da es sich um untere Schranken von Rechenschaltungen handelt. Dies folgt einem Muster, bei dem viele Algorithmen eine vermutete P-Zeit-Lösung für einen Parameter haben, ein solider Beweis für eine Untergrenze jedoch wahrscheinlich implizieren würdePNP oder etwas Stärkeres .

[1] Fragen zur Berechnung der Matrixsteifigkeit


2
Ich bin mir nicht sicher, wie sich dies (zum Beispiel) von dem Versuch unterscheidet, eine maximale Clique zu finden, indem ich alle Mengen der Größe k aufzähle, um k zu erhöhen. jeder Schritt ist auch p-Zeit für festes k.
Suresh Venkat

Ja, es ist sehr ähnlich und erinnert mich an die Hartmanis-Isomorphismus-Vermutung für NP-Mengen. Auch wenn die Isomorphismus-Vermutung nicht wahr ist (aktueller Konsens / konventionelle Weisheit scheint sich dagegen zu lehnen), scheint es, dass NP-Mengen ähnliche Eigenschaften haben, aber vielleicht etwas schwächer, was ebenfalls eine erschöpfende Suche zu erfordern scheint
vzn

-4

überraschenderweise eine der offensichtlichsten Antworten, die noch nicht veröffentlicht wurden. Das Auffinden einer Clique der Größe (Kanten oder Eckpunkte) erfordert anscheinend Zeit mit dem Naive / Brute Force-Algorithmus, der alle Möglichkeiten auflistet. oder genauer proportional zu Schritte. (Seltsamerweise scheint dieses grundlegende Faktoid in der Literatur selten erwähnt zu werden.) Ein strikter Beweis dafür würde jedoch implizieren . Diese Frage bezieht sich also auf die berühmte offene Vermutung, die ihr praktisch gleichkommt. andere NP-Probleme können auf diese Weise parametriert werden.cO(nc)(nc)PNP


2
1. Es gibt einen (einfachen) Algorithmus, der den Exponenten geringfügig verbessert. 2. Dies ist eine viel stärkere Aussage als P ungleich NP, genauso wie ETH stärker ist als P ungleich NP. Ich denke, Algorithmen wie diese sind nicht erwähnt worden, weil es den Anschein hat, dass das OP nicht an einer erschöpfenden Suche nach Algorithmen interessiert ist.
Sasho Nikolov

5
Nitpicking: Das Finden einer Clique mit Kanten kann in etwa (da wir nach einer Clique mit Eckpunkten suchen ). cncO(c)
Daniel Marx

5
Sie sollten vorsichtig sein, wenn Sie davon ausgehen, dass alle NP-vollständigen Probleme nur über die Brute-Force-Suche lösbar sind. Wie gesagt, das Finden einer Clique kann durch Matrixmultiplikation beschleunigt werden. Für viele andere Probleme haben wir exakte exponentielle Zeitalgorithmen mit einem besseren Exponenten als die Brute-Force-Suche. wovon Sie am ehesten sprechen, ähnelt der Exponentialzeithypothese: Die (viel stärkere als P neq NP) Vermutung, dass für alle -SAT Zeit benötigt, wobei . k>2 k2sknsk>0
Sasho Nikolov

6
Es gibt viele Fälle, in denen die Brute-Force-Suche für ein NP-hartes Problem nicht optimal ist. Drei klassische Beispiele: (1) Eine Scheitelpunktabdeckung der Größe kann rechtzeitig gefunden werden, z. B. . (2) Ein Pfad der Länge kann zu einer ähnlichen Zeit gefunden werden. (3) Eine unabhängige Menge von Größen in einem planaren Graphen kann in der Zeit . Übrigens: Zum Thema ETH und der Notwendigkeit von Brute Force finden Sie unsere Umfrage vielleicht interessant: cs.bme.hu/~dmarx/papers/survey-eth-beatcs.pdf2 kn k k 2 O ( k2knkk2O(k)n
Daniel Marx

5
@vzn: ist viel schneller als . 2O(n)2O(n)2O(n)
Jeffs
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.