Polynomialzeit-Algorithmen mit großem Exponenten / großer Konstante

59

Kennen Sie sinnvolle Algorithmen, die in Polynomialzeit laufen (Eingangslänge + Ausgangslänge), deren asymptotische Laufzeit im gleichen Maß aber einen wirklich großen Exponenten / Konstanten hat (zumindest dort, wo die nachgewiesene Obergrenze für die Laufzeit in liegt)? diese Weise)?

Joris
quelle
3
Siehe mathoverflow.net/questions/65412 : "Schlechtester bekannter Algorithmus in Bezug auf Big-O oder genauer Big-Theta." Ich habe dort eine Antwort gepostet.
Joseph O'Rourke
4
Es gibt den LOGSPACE-Algorithmus von Reingold für die Konnektivität (siehe eine Frage zur zeitlichen Komplexität ), aber bezweifle, dass dies in dem Sinne sinnvoll ist, wie Sie es hier meinen ...
Janne H. Korhonen,
1
@ Joseph ORourke: Ich habe gerade das "fette Rechteck" -Papier auf meinem Schreibtisch!
Aaron Sterling
3
Obwohl es sich bei dem um eine legitime Berechnung handelte (dynamisches Programmieren pumpt es auf), habe ich es in der Konferenzversion als einen Scherz aufgenommen , einen Scherz, der in der Journalversion entfernt wurde. n42
Joseph O'Rourke
9
Die Erkennung perfekter Graphen erfolgt in , und ein Durchbruch scheint erforderlich zu sein, um dies zu verbessern. O(|V(G)|9)
András Salamon

Antworten:

39

Algorithmen, die auf dem Regularitäts-Lemma basieren, sind gute Beispiele für Polynom-Zeit-Algorithmen mit schrecklichen Konstanten (entweder im Exponenten oder als führende Koeffizienten).

Das Regularitätslemma von Szemeredi besagt, dass Sie in jedem Graphen auf Eckpunkten die Eckpunkte in Mengen aufteilen können, bei denen die Kanten zwischen Paaren von Mengen "pseudozufällig" sind (dh die Dichten ausreichend großer Teilmengen sehen aus wie Dichten in einem Zufallsgraphen). . Dies ist eine Struktur, mit der man sehr gut arbeiten kann. Infolgedessen gibt es Algorithmen, die die Partition verwenden. Der Haken ist, dass die Anzahl der Mengen in der Partition ein exponentieller Turm im Parameter der Pseudozufälligkeit ist (siehe hier: http://en.wikipedia.org/wiki/Szemer%C3%A9di_regularity_lemma ).n

Einige Links zu Algorithmen, die auf dem Regelmäßigkeits-Lemma basieren, finden Sie unter: http://www.cs.cmu.edu/~ryanw/regularity-journ.pdf

Dana Moshkovitz
quelle
2
Guter Punkt! Allerdings ist mir kein Rechenproblem bekannt, bei dem es eine entsprechende Untergrenze des Exponententurms gibt. Gowers hat eine solche Untergrenze für das Regelmäßigkeits-Lemma selbst bewiesen, aber ich kenne kein Berechnungsproblem, wo dies zutrifft.
Arnab
3
Ich glaube, dass die von Chazelle in diesem Artikel ( arxiv.org/abs/0905.4241 ) beschriebenen Beflockungsalgorithmen eine optimale Konvergenz (dh untere Schranken) aufweisen, die ein Turm aus zwei ist
Suresh Venkat
In einem kürzlich erschienenen Artikel ( eccc.hpi-web.de/report/2014/018 ) zeige ich einige andere Algorithmen, die ein (arithmetisches) Regularitätslemma verwenden, dessen riesige Konstanten durch die O () - Notation verborgen sind.
Arnab
55

Neuigkeiten von SODA 2013 : Das Problem der maximalen Bisektion ist in etwa Zeit auf einen Faktor von 0,8776 genau zu lösen .O(n10100)

Jagadisch
quelle
54

Hier sind zwei Screenshots aus einem Energie-Driven Ansatz zur Verknüpfung Ausbreiten von Jason H. Cantarella, Erik D. Demaine, Hayley N. Iben, James F. O'Brien, SHAB 2004:

Folgerung 1. Die Anzahl der Schritte in unserem Algorithmus beträgt höchstens $ 1752484608000 n ^ {79} L ^ {25} / D ^ {26} (\ Theta_0) $

Folgerung 2. Die Anzahl der Schritte in unserem Algorithmus beträgt höchstens $ 117607251220365312000 n ^ {79} (\ ell _ {\ max} / d _ {\ min} (\ Theta_0)) ^ {26} $].

Jeffε
quelle
12
Die Konstante ist viel beeindruckender als die Kraft von :)n
Suresh Venkat
11
Dies ist ein Algorithmus mit riesigen Exponenten UND riesigen Konstanten ...
Hsien-Chih Chang 張顯 張顯
5
Die gleichen Grenzen gelten für Bubblesort.
Raphael
1
Wie eng sind diese Grenzen?
Max
34

Hier ist ein aktuelles Ergebnis von FUN 2012, Picture-Hanging Puzzles von Erik D. Demaine, Martin L. Demaine, Yair N. Minsky, Joseph SB Mitchell, Ronald L. Rivest und Mihai Patrascu.

Wir zeigen, wie Sie ein Bild aufhängen, indem Sie ein Seil um n Nägel wickeln und dabei eine Polynomzahl von Drehungen erstellen, sodass das Bild immer dann abfällt, wenn k der n Nägel entfernt werden. Das Bild bleibt hängen, wenn weniger als k Nägel entfernt werden.

O(n43737)

Jagadisch
quelle
15
(618)#gates in an AKS sorting network
16

LLcc=2O(|F|)FL

Emil Jeřábek
quelle
16

n120

O(n6log(nU))U

U / min adrianN
quelle
Ich erhalte eine Fehlermeldung von IEEE, wenn ich Ihrem Link folge, aber ich gehe davon aus, dass Sie sich auf Thorups FOCS'98-Artikel "Map graphs in polynomial time" beziehen.
David Eppstein
1
Ich meine das Papier, und es wird gut für mich geladen.
AdrianN
arbeitet für mich von der U.
Suresh Venkat
12

Sandhaufen-Vergänglichkeitsproblem

Betrachten Sie den folgenden Prozess. Nehmen Sie eine dicke Fliese und lassen Sie Sandpartikel kornweise darauf fallen. Nach und nach bildet sich ein Haufen, und dann rutscht ein großer Teil des Sandes von den Fliesenrändern ab. Wenn wir nach einer bestimmten Zeit weiterhin Sandpartikel hinzufügen, wird die Konfiguration des Haufens wiederholt. Danach wird die Konfiguration wiederkehrend, dh es wird ein Zustand wiederholt, der zuvor gesehen wurde.

n×n

n

In SODA '07 haben László Babai und Igor Gorodezky bewiesen, dass diese Zeit polynomisch begrenzt ist, aber ..

Bildbeschreibung hier eingeben

O(n7)

Diese Antwort hätte etwas besser ausgesehen, wenn sie nicht verbessert worden wäre :)

Jagadish
quelle
11

O(n7)

Jeffε
quelle
10

O(n6)

Yuval Filmus
quelle
6

O(n11)

Lamine
quelle
-3

O(2n)n(n1)(n2)(n3)O(nc)c(nc)cElemente der Matrix ändern und auf resultierende Dimensionsreduzierung prüfen. Dies ist nicht völlig überraschend, da es sich um untere Schranken von Rechenschaltungen handelt. Dies folgt einem Muster, bei dem viele Algorithmen eine vermutete P-Zeit-Lösung für einen Parameter haben, ein solider Beweis für eine Untergrenze jedoch wahrscheinlich implizieren würdePNP oder etwas Stärkeres .

[1] Fragen zur Berechnung der Matrixsteifigkeit

vzn
quelle
2
Ich bin mir nicht sicher, wie sich dies (zum Beispiel) von dem Versuch unterscheidet, eine maximale Clique zu finden, indem ich alle Mengen der Größe k aufzähle, um k zu erhöhen. jeder Schritt ist auch p-Zeit für festes k.
Suresh Venkat
Ja, es ist sehr ähnlich und erinnert mich an die Hartmanis-Isomorphismus-Vermutung für NP-Mengen. Auch wenn die Isomorphismus-Vermutung nicht wahr ist (aktueller Konsens / konventionelle Weisheit scheint sich dagegen zu lehnen), scheint es, dass NP-Mengen ähnliche Eigenschaften haben, aber vielleicht etwas schwächer, was ebenfalls eine erschöpfende Suche zu erfordern scheint
vzn
-4

überraschenderweise eine der offensichtlichsten Antworten, die noch nicht veröffentlicht wurden. Das Auffinden einer Clique der Größe (Kanten oder Eckpunkte) erfordert anscheinend Zeit mit dem Naive / Brute Force-Algorithmus, der alle Möglichkeiten auflistet. oder genauer proportional zu Schritte. (Seltsamerweise scheint dieses grundlegende Faktoid in der Literatur selten erwähnt zu werden.) Ein strikter Beweis dafür würde jedoch implizieren . Diese Frage bezieht sich also auf die berühmte offene Vermutung, die ihr praktisch gleichkommt. andere NP-Probleme können auf diese Weise parametriert werden.cO(nc)(nc)PNP

vzn
quelle
2
1. Es gibt einen (einfachen) Algorithmus, der den Exponenten geringfügig verbessert. 2. Dies ist eine viel stärkere Aussage als P ungleich NP, genauso wie ETH stärker ist als P ungleich NP. Ich denke, Algorithmen wie diese sind nicht erwähnt worden, weil es den Anschein hat, dass das OP nicht an einer erschöpfenden Suche nach Algorithmen interessiert ist.
Sasho Nikolov
5
Nitpicking: Das Finden einer Clique mit Kanten kann in etwa (da wir nach einer Clique mit Eckpunkten suchen ). cncO(c)
Daniel Marx
5
Sie sollten vorsichtig sein, wenn Sie davon ausgehen, dass alle NP-vollständigen Probleme nur über die Brute-Force-Suche lösbar sind. Wie gesagt, das Finden einer Clique kann durch Matrixmultiplikation beschleunigt werden. Für viele andere Probleme haben wir exakte exponentielle Zeitalgorithmen mit einem besseren Exponenten als die Brute-Force-Suche. wovon Sie am ehesten sprechen, ähnelt der Exponentialzeithypothese: Die (viel stärkere als P neq NP) Vermutung, dass für alle -SAT Zeit benötigt, wobei . k>2 k2sknsk>0
Sasho Nikolov
6
Es gibt viele Fälle, in denen die Brute-Force-Suche für ein NP-hartes Problem nicht optimal ist. Drei klassische Beispiele: (1) Eine Scheitelpunktabdeckung der Größe kann rechtzeitig gefunden werden, z. B. . (2) Ein Pfad der Länge kann zu einer ähnlichen Zeit gefunden werden. (3) Eine unabhängige Menge von Größen in einem planaren Graphen kann in der Zeit . Übrigens: Zum Thema ETH und der Notwendigkeit von Brute Force finden Sie unsere Umfrage vielleicht interessant: cs.bme.hu/~dmarx/papers/survey-eth-beatcs.pdf2 kn k k 2 O ( k2knkk2O(k)n
Daniel Marx
5
@vzn: ist viel schneller als . 2O(n)2O(n)2O(n)
Jeffs