Lassen Sie mich mit einigen Beispielen beginnen. Warum ist es so trivial zu zeigen, dass CVP in P ist, aber so schwer zu zeigen, dass LP in P ist? während beide P-vollständige Probleme sind.
Oder nimm die Ursprünglichkeit. Es ist einfacher, Komposite in NP zu zeigen als Primzahlen in NP (für die Pratt erforderlich war) und schließlich in P. Warum musste diese Asymmetrie überhaupt gezeigt werden?
Ich kenne Hilbert, brauche Kreativität, Beweise sind in NP usw. Aber das hat mich nicht davon abgehalten, das Gefühl zu haben, dass es mehr gibt, als man denkt.
Gibt es einen quantifizierbaren Begriff von "Arbeit" und gibt es ein "Erhaltungsgesetz" in der Komplexitätstheorie? Das zeigt zum Beispiel, dass CVP und LP, obwohl beide P-vollständig sind, ihre Komplexität an "verschiedenen Stellen" verbergen - eine in der Reduktion (Ist CVP einfach, weil die ganze Arbeit in der Reduktion erledigt wird?) Und die andere in der Ausdruckbarkeit der Sprache.
Ist Ihnen noch jemand unwohl und mit ein paar Einsichten? Oder zucken wir mit den Schultern und sagen / akzeptieren wir, dass dies die Art der Berechnung ist?
Dies ist meine erste Frage an das Forum: Daumen drücken.
Edit: CVP ist Circuit Value Problem und LP ist Linear Programming. Vielen Dank, Sadeq, für den Hinweis auf eine Verwirrung.
quelle
Antworten:
Diese Frage ist mir schon oft in den Sinn gekommen.
Ich denke, ein Ort, an dem man suchen sollte, ist die Informationstheorie. Hier ist eine Spekulation von mir. Wenn ein Problem vorliegt, können wir möglicherweise den eingegebenen Informationen und den vom Algorithmus empfangenen Informationen einen Entropiewert zuweisen. Wenn wir das tun könnten, gäbe es eine Mindestmenge an Informationsgewinn, die ein Algorithmus benötigt, um dieses Problem zu lösen.
Es gibt eine verwandte Sache, die ich herausfinden wollte. In einigen NP-vollständigen Problemen finden Sie eine eingeschränkte Version in P; Wenn Sie beim Hamilton-Pfad angeben, dass der Graph eine DAG ist, gibt es einen p-Zeit-Algorithmus, um ihn zu lösen. Bei anderen Problemen wie TSP gibt es oft P-Zeit-Algorithmen, die sich dem Optimum annähern. Für eingeschränkte p-Zeit-Algorithmen scheint es mir eine proportionale Beziehung zwischen den angenommenen Additionsinformationen und der Verringerung der Laufzeitkomplexität zu geben. Im Falle des TSP gehen wir nicht von zusätzlichen Informationen aus, sondern lockern die Genauigkeit, von der ich einen ähnlichen Effekt auf jede Art von algorithmischem Informationsgewinn erwarte.
Hinweis zu Naturschutzgesetzen
In den frühen 1900er Jahren gab es kaum eine bekannte deutsch-amerikanische Mathematikerin namens Emily Noether. Unter anderem wurde sie von Einstein und Hilbert als die bedeutendste Frau in der Geschichte der Mathematik beschrieben. 1915 veröffentlichte sie den heutigen Noether's First Theorem . Der Satz befasste sich mit physikalischen Erhaltungsgesetzen und besagte, dass alle Erhaltungsgesetze im physikalischen System eine entsprechende differentielle Symmetrie aufweisen. Die Erhaltung des Drehimpulses ergibt sich aus einer Rotationssymmetrie im Raum. Die Erhaltung des linearen Impulses ist eine Translation im Raum. Die Erhaltung der Energie ist eine Translation in der Zeit. Unter der Voraussetzung, dass es ein Gesetz zur Erhaltung der Komplexität im formalen Sinne gibt, müsste es eine entsprechende differentielle Symmetrie in einer langragischen Funktion geben.
quelle
Ich denke, der Grund liegt in dem logischen System, das wir verwenden. Jedes formale System hat eine Reihe von Axiomen und eine Reihe von Inferenzregeln .
Die Länge des Beweises eines Theorems hängt, vorausgesetzt, es ist im logischen System entscheidbar, vollständig von den Axiomensätzen und Inferenzregeln ab .
Betrachten Sie zum Beispiel die Aussagenlogik, für die es mehrere Charakterisierungen gibt: Frege (1879), Nicod (1917) und Mendelson (1979). ( Weitere Informationen finden Sie in dieser kurzen Umfrage .)
Das letztere System (Mendelson) hat drei Axiome und eine Inferenzregel (modus ponens). Angesichts dieser kurzen Beschreibung ist es wirklich schwierig , selbst die trivialsten Theoreme zu beweisen, sagen wir . Hier wird durch harte , ich meine die minimale Länge des Beweises hoch ist.φ→φ
Dieses Problem wird als Beweiskomplexität bezeichnet . Um Beame & Pitassi zu zitieren :
quelle
Ich habe neulich über dieselbe Frage nachgedacht, als ich einige von Feynmans Vorlesungen über Physik nachgespielt habe, und bin zu Lektion 4 über Energieeinsparung gekommen. In der Vorlesung verwendet Feynman das Beispiel einer einfachen Maschine, die (über ein Hebelsystem, eine Riemenscheibe oder was auch immer) ein Gewicht von einer Einheit um einen Abstand x absenkt und damit ein zweites Gewicht von 3 Einheiten anhebt. Wie hoch kann das Gewicht angehoben werden? Feynman macht die Beobachtung, dass wir, wenn die Maschine umkehrbar ist, nichts über den Mechanismus der Maschine wissen müssen - wir können sie wie eine Black Box behandeln - und das Gewicht immer um die maximal mögliche Entfernung heben ( x / 3 in diesem Fall).
Hat dies ein Analogon in der Berechnung? Die Idee der reversiblen Berechnung erinnert an die Arbeit von Landauer und Bennett, aber ich bin mir nicht sicher, ob dies der Sinn des Begriffs ist, an dem wir interessiert sind. Wenn wir einen Algorithmus für ein optimales Problem haben, wird intuitiv keine verschwendete "Arbeit" mit dem Mischen von Bits erledigt. während ein Brute-Force-Ansatz für dasselbe Problem die CPU-Zyklen nach links und rechts wegwirft. Ich stelle mir jedoch vor, dass man für jeden Algorithmus eine physikalisch reversible Schaltung konstruieren könnte.
Ich denke, der erste Schritt bei der Annäherung an ein Erhaltungsgesetz für die rechnerische Komplexität besteht darin, genau herauszufinden, was erhalten werden sollte. Raum und Zeit sind wichtige Messgrößen, aber es ist aus dem Vorhandensein von Raum / Zeit-Kompromissen klar, dass keines für sich als Maß dafür, wie viel "Arbeit" von einem Algorithmus erledigt wird, angemessen sein wird. Es wurden andere Metriken wie TM-Kopfumkehrungen oder Bandzellenkreuzungen verwendet. Keines davon scheint wirklich unserer Vorstellung von der Menge an "Arbeit" zu entsprechen, die zur Durchführung einer Berechnung erforderlich ist.
Die Kehrseite des Problems ist, herauszufinden, in was diese Arbeit umgewandelt wird. Was genau haben Sie gewonnen, nachdem Sie die Ausgabe eines Programms erhalten haben?
quelle
Einige Beobachtungen, die auf das Bestehen eines Naturschutzgesetzes hindeuten:
Wenn wir berechenbare Reduktionen für die Polynomzeit (oder den Log-Raum) als Transformationen zwischen Rechenproblemen betrachten, legen die folgenden Definitionen bekannter Komplexitätsklassen die Existenz einer konservierten Eigenschaft unter "effizienten" Transformationen nahe. Unter der Annahme von scheint "Härte" die konservierte Eigenschaft zu sein.<p P≠NP
EDIT : ist genauer definiert als was darauf hindeutet, dass die Härte von Problemen in während der Komplementoperation unveränderlich ist, während nicht bekannt ist, dass die Komplementation die Härte von Problemen bewahrt (es sei denn, ).P = { L | L < p H o r n S A T , ˉ L < p H o r n S A T } P N P P = N PP P={L|L<pHornSAT,L¯<pHornSAT} P NP P=NP
quelle
Tao schlägt das Bestehen eines Gesetzes zur Erhaltung von Schwierigkeiten in der Mathematik vor: "Um ein wirklich nicht triviales Ergebnis zu beweisen, muss irgendwo harte Arbeit geleistet werden".
Er argumentiert, dass die Schwierigkeit einiger mathematischer Beweise darauf hindeutet , dass der Aufwand für den Beweis des Theorems geringer ist.
quelle