Es wird vermutet, dass Zufälligkeit die Leistung von Polynom-Zeit-Algorithmen nicht erweitert, das heißt, es wird vermutet , dass gilt. Auf der anderen Seite scheint die Zufälligkeit eine ganz andere Wirkung auf Polynom Zeit haben Reduzierungen . Durch das bekannte Ergebnis Valiant und Vazirani, reduziert sich auf über randomisierte Polynomialzeitreduktion. Es ist unwahrscheinlich, dass die Reduktion derandomisiert werden könnte, da dies zu , was als unwahrscheinlich erachtet wird.
Ich frage mich, was der Grund für diese asymmetrische Situation sein könnte: Bei probabilistischen Polynomzeitalgorithmen scheint eine Derandomisierung durchaus möglich zu sein, bei probabilistischen Polynomzeitreduzierungen jedoch nicht.
cc.complexity-theory
reductions
derandomization
Andras Farago
quelle
quelle
Antworten:
Lassen Sie mich zunächst auf den speziellen Fall der Valiant-Vazirani-Reduktion eingehen. Ich hoffe, dies wird dazu beitragen, die allgemeine Situation zu klären.
Die Valiant-Vazirani-Reduktion kann auf verschiedene Arten betrachtet / definiert werden. Diese Reduktion wird „versuchen“ , um eine erfüllbar Boolesche Formel zur Karte zu einem einzigartig-erfüllbar F ' und ein unerfüllbar F zu einem unerfüllbar F ' . Alle Ausgabeformeln werden immer durch weiteres Einschränken von F erhalten , sodass die Unzufriedenheit immer erhalten bleibt. Die Reduktion kann entweder als Ausgabe eines einzelnen F ' oder als Ausgabe einer Liste von F ' 1 , ... , F ' t definiert werden . Im letzteren Fall, „Erfolg“ im Fall F ∈F F′ F F′ F F′ F′1,…,F′t ist definiert als mitmindestens einemeindeutig erfüllbaren F ' i in der Liste. Nennen Sie diese beiden Varianten "Singleton-Reduktion" bzw. "Listen-Reduktion" (dies ist keine Standardterminologie).F∈SAT F′i
Der erste wichtige Punkt ist, dass die Erfolgswahrscheinlichkeit bei der Singleton-Reduktion recht gering ist, nämlich wobei n die Anzahl der Variablen ist. Die Schwierigkeiten bei der Verbesserung dieser Erfolgswahrscheinlichkeit werden in der Arbeit untersuchtΘ(1/n) n
"Kann die Isolationswahrscheinlichkeit von Valiant-Vazirani verbessert werden?" von Dell et al.
http://eccc.hpi-web.de/report/2011/151/#revision1
Bei der Listenreduktion kann die Erfolgswahrscheinlichkeit mit einer Liste mit Poly ( n ) -Größe groß gemacht werden, beispielsweise . (Man kann zum Beispiel die Singleton-Reduktion einfach viele Male wiederholen.)1−2−n (n)
Nun ist es überhaupt nicht offensichtlich oder intuitiv, dass wir in der Lage sein sollten, eine Reduktion, die nur eine Erfolgswahrscheinlichkeit von hat, direkt zu derandomisieren . In der Tat gibt keines der Härte-gegen-Zufälligkeit-Ergebnisse Hypothesen an, unter denen wir dies in diesem Fall tun können. Es ist viel plausibler, dass die Listenreduzierung derandomisiert werden kann (mit einer etwas größeren Liste). Beachten Sie jedoch, dass dies nicht N P = U P implizieren würde : Unsere Ausgabeliste von Formeln kann viele eindeutig erfüllbare Formeln haben, und vielleicht einige mit vielen zufriedenstellenden Zuweisungen, und es scheint hoffnungslos, zu versuchen, eine eindeutig akzeptierende Berechnung über eine solche zu definieren Liste.1/n NP=UP
Selbst wenn wir irgendwie eine Listenreduktion geben könnten, in der ein erfüllbares immer eine Liste F ' 1 , ... , F ' t induziert , in der die meisten F ' j ' s eindeutig erfüllbar sind, gibt es keinen klaren Weg, dies umzusetzen eine deterministische Singleton-Reduktion zur Isolierung. Die eigentliche zugrunde liegende Schwierigkeit besteht darin, dass wir keine "Näherungsmehrheitsoperation für eindeutig erfüllbare Formeln" kennen, dh eine Reduktion R ( F ′ 1 , … , F ′ t ).F F′1,…,F′t F′j R(F′1,…,F′t) deren Ausgabe eindeutig erfüllbar ist, wenn die meisten ' s eindeutig erfüllbar sind, und nicht erfüllbar ist, wenn die meisten F ' j ' s nicht erfüllbar sind. Dies scheint auch ein allgemeines Phänomen zu sein: Reduktionen geben komplexere Objekte als Entscheidungsalgorithmen aus, und die Eigenschaften dieser Objekte sind schwerer zu überprüfen, sodass es schwieriger ist , viele dieser Objekte zu einem einzigen Objekt zu kombinieren , das einige Eigenschaften der Mehrheit übernimmt.F′j F′j
Für den Fall von Valiant-Vazirani erscheint es unter plausiblen Annahmen der Derandomisierung nicht einmal wahrscheinlich, dass wir in der Lage wären, zu erhalten, dh erfüllbare Formeln deterministisch auf erfüllbare Formeln mit ≤ poly ( n ) zu reduzieren. lösungen. Dies ist intuitiv darauf zurückzuführen, dass das Isolierungsverfahren keine Ahnung hat, ob die angegebene Lösungsmenge der Formel F auch nur eine grobe Größe hat .NP=FewP ≤ (n) F
quelle
In der Orakelwelt ist es einfach, Beispiele zu nennen, bei denen der Zufall uns viel mehr Macht verleiht. Betrachten Sie zum Beispiel das Problem, eine Null einer ausgeglichenen Booleschen Funktion zu finden. Ein randomisierter Algorithmus erreicht die Verwendung von -Abfragen mit konstanter Erfolgswahrscheinlichkeit, während jeder deterministische Algorithmus mindestens n / 2 Abfragen erfordert .O(1) n/2
Hier ist eine andere Situation, in der vermutet wird , dass Randomisierung hilft. Angenommen, wir möchten eine monotone submodulare Funktion über eine Matroid-Einschränkung maximieren. Es gibt zwei verschiedene Algorithmen, die eine Approximation ergeben, und dies ist in diesem Modell durch ein Ergebnis von Vondrák optimal. Beide Algorithmen müssen eine Funktion der Form E x ∼ X f ( x ) berechnen , wobei X gilt1−1/e Ex∼Xf(x) X ist eine Distribution mit exponentieller Unterstützung. Die exakte Berechnung dieser Funktion ist zu kostspielig, kann jedoch durch Stichproben angenähert werden. Das Ergebnis ist ein randomisierter Algorithmus. Im Gegensatz dazu liefert der bekannteste deterministische Algorithmus, der Greedy-Algorithmus, eine Approximation.1/2
Eine ähnliche Situation tritt bei einer uneingeschränkten submodularen Maximierung auf (hier ist die Funktion nicht notwendigerweise monoton). Der aktuelle Durchbruchsalgorithmus liefert eine optimale Approximation, seine deterministische Version liefert jedoch nur eine 1 / 3- Approximation. Hier manifestiert sich die Randomisierung entweder genauso wie im monotonen Fall oder (in einer anderen Version des Algorithmus), indem einige zufällige Entscheidungen getroffen werden.1/2 1/3
Einer der Autoren der letztgenannten Papier Mutmaßungen , dass ist das Beste , was ein deterministischer Algorithmus erreichen können, und wir können in ähnlicher Weise Vermutung , dass 1 / 2 ist die beste, die im vorherigen Problem gelöst werden kann. Wenn diese Vermutungen zutreffen, ist dies eine sehr natürliche Situation, in der Randomisierung nachweislich hilft.1/3 1/2
Vor kurzem haben Dobzinski und Vondrák gezeigt, wie man untere Schranken von Wert-Orakeln (für randomisierte Algorithmen) in Härteergebnisse umwandelt, abhängig von NP, die sich von RP unterscheiden (der Hauptbestandteil ist die Listendecodierung). Wir sollten erwähnen, dass die Transformation auf der spezifischen Methode beruht, die verwendet wird, um die unteren Grenzen des Orakels zu beweisen. Vielleicht ist es richtig, dass sich deterministische Wert- oder Orakeluntergrenzen auch in Härteergebnissen niederschlagen.
quelle
Und doch existieren diese Reduktionen verschiedener Kräfte. Tatsächlich hat eine Rechenressource wie die Zufälligkeit nicht notwendigerweise eine feste Menge an Rechenleistung, die entweder "signifikant" oder "nicht signifikant" ist.
If we take this position, we can ask what happens if we provide these computational modelsM with extra facilities such as randomness or nondeterminism. (These extra facilities don't necessarily preserve the property of being interpretable by a machine model, especially in the case of nondeterminism, but they do give rise to 'new' classes.) If this extra facility gives the model more power, giving rise to a class C , this is in effect equivalent to saying that there is a reduction from C to M using that facility, e.g. a randomized reduction in the case of randomness.
The reason why I'm describing this in terms of classes which are low for themselves is that if we take seriously that they are "possible models of computation in another world", your question about randomized reductions corresponds to the fact that it seems that randomness dramatically increases the power of some models but not others.
In place of randomized reductions fromNP to UP , we can observe that there is a randomized reduction from all of PH to the class BP⋅⊕P — which is obtained if you add bounded-error randomness to ⊕P — by Toda's Theorem. And your question can then be posed as: why does this happen? Why should some machines gain so much from randomness, and others so little? In the case of PH⊆BP⋅⊕P , it seems as though the modulo-2 nondeterminism entailed in the definition of ⊕P (essentially a counting quantifier modulo 2) catalyses the randomness entailed in bounded error (essentially a counting quantifier with a promise gap) to give us the equivalent of an entire unbounded hierarchy of existential and universal quantifiers. But this does not mean that we suppose that ⊕P is itself approximately as powerful as the entire polynomial hierarchy, does it? Neither the resources of bounded-error randomness nor modulo-2 counting are thought to be nearly that powerful. What we observe is that together, these two quantifiers are that powerful.
There's also a question of whether we can really say that randomness is weak in absolute terms, compared say to nondeterminism: if randomness is so weak, and if we're so convinced thatBPP=P , why can we only bound BPP⊆Σp2∩Δp2 in the polynomial hierarchy, using two levels of indeterminism, let alone one? But this may just be a result that, while we suspect that randomness added to simple polynomial-time computation doesn't give much power, we have no idea of how to simulate that additional power using only a small amount of nondeterminism of the sort involved in NP and coNP . (Of course, it's difficult to prove anything nontrivial in complexity theory; but that again is just the statement that these different sorts of resources are difficult to compare on a scale!)
There is no strong argument that I can give to defend why this should be the case, other than to observe that so far it simply is the case; and that if you think thatPH doesn't collapse, is different from ⊕P , and that BPP≈P , then you should consider the possibility that facilities such as randomness and nondeterminism can have powers which are not easily comparable to one another, and which can synergize or catalyse one another to give computational power that neither one would plausibly have on its own. The hypothesis that BPP=P is not that "randomness has no power", but that randomness alone (or rather, supplemented only by polynomial time computation and provided to an otherwise deterministic computational model) is not powerful. But this does not mean that there can be no power in randomness, which may be catalysed by other computational resources.
quelle