Viele wichtige Ergebnisse in der rechnerischen Komplexitätstheorie und insbesondere in der "strukturellen" Komplexitätstheorie haben die interessante Eigenschaft, dass sie aus algorithmischen Ergebnissen, die für einige einen effizienten Algorithmus oder ein effizientes Kommunikationsprotokoll liefern, als grundlegend zu verstehen sind (wie ich es sehe ...) Problem. Dazu gehören die folgenden:
- IP = PSPACE ergibt sich aus einem platzsparenden rekursiven Algorithmus, der interaktive Protokolle simuliert, und einem effizienten interaktiven Protokoll zur Auswertung vollständig quantifizierter Boolescher Formeln. Tatsächlich kann jede Komplexitätsklassengleichheit A = B aus zwei effizienten Algorithmen (einem Algorithmus für Probleme in A, der in Bezug auf B effizient ist, und umgekehrt) als folgt angesehen werden.
- Der Nachweis der NP-Vollständigkeit eines Problems besteht darin, einen effizienten Algorithmus zu finden, um ein NP-vollständiges Problem auf dieses zu reduzieren.
- Der (wohl!) Entscheidende Bestandteil des Zeithierarchiesatzes ist eine effiziente universelle Simulation von Turingmaschinen.
- Das jüngste Ergebnis von Ryan Williams, dass ACC NEXP auf einem effizienten Algorithmus basiert, um die Schaltungserfüllbarkeit für ACC-Schaltungen zu lösen.
- Das PCP-Theorem besagt, dass eine effiziente Lückenverstärkung für Bedingungserfüllungsprobleme möglich ist.
- usw. usw.
Meine Frage (die möglicherweise hoffnungslos vage ist!) Lautet wie folgt: Gibt es wichtige Ergebnisse in der strukturellen Komplexitätstheorie (im Unterschied zu "Metaergebnissen" wie der Relativierungsbarriere), von denen nicht bekannt ist, dass sie eine natürliche Interpretation in Bezug auf Effizienz haben? Algorithmen (oder Kommunikationsprotokolle)?
quelle
Antworten:
Für viele untere Schranken der algebraischen Komplexität kenne ich keine natürliche Interpretation hinsichtlich effizienter Algorithmen. Beispielsweise:
die partielle Ableitungstechnik von Nisan und Wigderson
die Rang-von-Hessian-Technik von Mignon und Ressayre (die derzeit bekannteste untere Schranke für permanente versus Determinante)
der Grad gebunden von Strassen (und Baur-Strassen)
die verbundene Komponententechnik von Ben-Or.
In all den obigen Ergebnissen scheinen sie tatsächlich eine Eigenschaft der beteiligten Funktionen zu verwenden, wobei diese Eigenschaft selbst nicht mit der Existenz eines bestimmten Algorithmus (geschweige denn eines effektiven) in Zusammenhang zu stehen scheint.
Für nicht-algebraische Ergebnisse sind hier einige Gedanken:
Das Standard-Zählargument für die untere Grenze der Sortierung scheint keine Interpretation in Bezug auf effiziente Algorithmen zu haben. Es gibt jedoch eine kontroverse Version dieser Untergrenze [1], in der es einen Algorithmus gibt, der bei einem Entscheidungsbaum, der zu wenige Vergleiche verwendet, effizient eine Liste erstellt, die der Entscheidungsbaum falsch sortiert. Die gegnerische Version ist zwar nicht schwierig, aber deutlich schwieriger als der Zählnachweis. (Beachten Sie, dass dies viel stärker ist als das, was man durch Anwendung der Technik der unteren Grenze des Gegners erhält, z. B. wie in diesen Anmerkungen , da in [1] der Gegner selbst effizient ist .)n logn
Ich denke, ich habe meine Meinung über PARITÄT geändert, nicht in (sogar der Originalbeweis, geschweige denn der von @RobinKothari erwähnte Razborov-Smolensky-Beweis). Obwohl das Umschalt-Lemma als zufälliger ( oder deterministischer ) Algorithmus angesehen werden kann, mit dem Sie zwei Zeilen eines Stromkreises vertauschen können, ohne dass dies zu einer großen Vergrößerung führt, denke ich, dass dies einen anderen Geschmack hat als viele Komplexitätsergebnisse, insbesondere der diejenigen, die du zitierst. Williams 'Beweis, dass entscheidender ist, basiert auf der Existenz eines guten Algorithmus für ein bestimmtes Problem. Wenn man dagegen etwas wie das Switching-Lemma nicht konstruktiv beweisen könnte, wäre es genauso gut, um die PARITÄT nicht in zu beweisen . A C C ≠ N E X P A C 0A C0 A CC≠ NEXP A C0
Aufgrund dieser beiden letzten Beispiele - insbesondere der Sortierung, bei der der Standardbeweis nicht konstruktiv ist - scheint mir die Frage nicht nur nach natürlichen Interpretationen im Hinblick auf effiziente Algorithmen zu lauten, sondern auch nach der Konstruktivität / Wirksamkeit der Beweise verschiedener Komplexität resultiert (abhängig davon, was das OP im Sinn hatte). Das heißt, die untere Grenze der Standardsortierung ist nicht konstruktiv oder algorithmisch, aber es gibt einen konstruktiven, algorithmischen Beweis für dasselbe Ergebnis.
[1] Atallah, MJ und Kosaraju, SR Eine gegnerische Untergrenze zum Sortieren . Informieren. Proc. Lette. 13 (2): 55-57, 1981.
quelle