Die Komplexitätstheorie unterscheidet anhand von Konzepten wie der NP-Vollständigkeit zwischen Rechenproblemen mit relativ effizienten Lösungen und solchen, die nicht zu lösen sind. "Feinkörnige" Komplexität zielt darauf ab, diese qualitative Unterscheidung in einen quantitativen Leitfaden für die genaue Zeit zu verfeinern, die zur Lösung von Problemen erforderlich ist. Weitere Details finden Sie hier: http://simons.berkeley.edu/programs/complexity2015
Hier sind einige wichtige Hypothesen:
ETH: - benötigt Zeit für ein .S A T 2 δ n δ > 0
SETH: Für jedes gibt es ein so dass - für Variablen, Klauseln nicht in Zeit gelöst werden können .k k S A T n m 2 ( 1 - ε ) n p o l y m
Es ist bekannt, dass SETH stärker als ETH und beide stärker als und beide stärker als .F T P ≠ W [ 1 ]
Vier weitere wichtige Vermutungen:
3SUM Conjecture: 3SUM für ganze Zahlen in benötigt Zeit{ - n 3 , … , n 3 } n 2 - o ( 1 )
OF-Vermutung: Orthogonale Vektoren auf Vektoren benötigen Zeit.n 2 - o ( 1 )
APSP-Vermutung: Der kürzeste Pfad aller Paare auf Knoten und die Bitgewichtung erfordern Zeit.O ( log n ) n 3 - o ( 1 )
BMM-Vermutung: Jeder "kombinatorische" Algorithmus für die Boolesche Matrixmultiplikation benötigt Zeit.
Es ist bekannt, dass SETH die OV-Vermutung impliziert (Ryan Willams, 2004). Abgesehen von Ryans Beweis, dass SETH OV-Vermutung , sind keine weiteren Vermutungen bekannt.
Meine Frage: Kennen Sie andere verwandte Hypothesen oder Vermutungen in diesem Bereich? Wie sind die Beziehungen zwischen ihnen?
Danksagung: Die aufgeführten Ergebnisse stammen von Virginia Vassilevska Williams. Sie hat mir auch teilweise Antworten auf diese Frage gegeben.
Link zu den Folien: http://theory.stanford.edu/~virgi/overview.pdf
Antworten:
Dies ist eine kürzlich erschienene Veröffentlichung, in der die nichtdeterministische Hypothese der starken exponentiellen Zeit (NSETH) vorgestellt wird, die eine Erweiterung von SETH darstellt.
NSETH: Für jedes gibt es ein so dass -DNF-TAUT nicht in der nicht deterministischen Zeit gelöst werden kann .k k 2 ( 1 - ϵ ) nϵ>0 k k 2(1−ϵ)n
NSETH impliziert SETH. Wenn NSETH wahr ist, haben einige Probleme keine SETH-Untergrenzen (da sie nicht deterministische Algorithmen schneller als deterministische Algorithmen haben).
In diesem Aufsatz wurde auch die Hypothese der uneinheitlichen nichtdeterministischen starken exponentiellen Zeit (NUNSETH) vorgestellt, eine Hypothese, die stärker ist als NSETH und SETH.
NUNSETH: Für jedes gibt es ein so dass -DNF-TAUT von nicht deterministischen Schaltkreisfamilien der Größe nicht erkannt werden kann .k k 2 ( 1 - ϵ ) nϵ>0 k k 2(1−ϵ)n
quelle
Eine weitere interessante Vermutung ist die Härte von Clique für festes (siehe hier ).kk k
Dies ist nicht genau die Art von Beziehung, die Sie suchen, aber es gab ein interessantes FOCS-Papier, das zeigt, dass ein natürliches Problem namens "Matching Triangles" unter allen SETH-, 3SUM- oder APSP-Vermutungen schwierig ist (siehe hier ). Es ist derzeit nicht bekannt, ob sich eine dieser drei Vermutungen auf interessante Weise gegenseitig impliziert oder nicht - dies ist eine der wichtigsten offenen Fragen der feinkörnigen Komplexität.
quelle
Die jüngsten Ergebnisse von Backurs, Indyk, haben dem STOC 2015 zugestimmt, dass die Berechnung der Editierentfernung in Zeit → SETH falsch mit dem neu aufkommenden Forschungsprogramm / -paradigma "Feinkörnige Komplexität" in Einklang steht . Sie stehen in enger Beziehung zu / bauen auf Williams auf, was zu der Vermutung SETH → Orthogonale Vektoren führt. (Auch in den Mainstream-Medien, Boston Globe).O(n2−ϵ)
Bearbeitungsentfernung kann nicht in stark subquadratischer Zeit berechnet werden (es sei denn, SETH ist false) / Backurs, Indyk
Eine neue Karte verfolgt die Grenzen der Berechnung / Pavlus, Quanta Magazine
Seit 40 Jahren suchen Informatiker nach einer Lösung, die es nicht gibt / Boston Globe
Rätselhafte Beweise / RJLipton-Blog
ein scheinbar sehr ähnliches Ergebnis aufgrund von Wehar betrachtet das Problem der "2-DFA-Schnittmenge-Leere" und stellt fest, dass die -Zeit → SETH falsch ist.O(n2−ϵ)
Wehar hat andere Ergebnisse , die auch in passen scheinen allgemein „feinkörnig Komplexität“ -Verbindungen, dass die gleichen DFA Schnitt Leere in Zeit →n o ( k ) N L ⊊ Pk no(k) NL⊊P
In diesem Sinne ist auch zu erwähnen, dass es einen bekannten signifikanten Zusammenhang zwischen DFA-Konstruktionen und Levenshtein-Abstandsberechnungen gibt, z. B. in dieser Veröffentlichung
quelle