Angenommen, man hat einen randomisierten (BPP) Algorithmus Verwendung von Zufallsbits . Natürliche Wege , um ihre Erfolgswahrscheinlichkeit zu verstärken , für jede gewählte , sind
- Unabhängige Läufe + Mehrheitsabstimmung: Laufen Sie unabhängig Male und nehmen Sie die Mehrheitsabstimmung der Ausgänge. Dies erfordert Bits der Zufälligkeit, und sprengt die Laufzeit um einen Faktor.
- Paarweise unabhängige Läufe + Chebyshev: Führe "paarweise unabhängig" Male aus und vergleiche mit einem Schwellenwert. Dies erfordert Bits der Zufälligkeit und sprengt die Laufzeit um ein Faktor.
Karp, Pippenger und Sipser [1] (anscheinend, ich meine Hände nicht auf dem Papier bekommen konnte selbst, es ist ein Second-Hand - Konto) vorgesehen alternative Ansätze basierend auf starken regelmäßigen Expandern: im Wesentlichen finden Sie in den Knoten des Expanders wie die zufälligen Samen. Wählen Sie einen zufälligen Knoten des Expanders mit den zufälligen Bits und dann
Machen Sie von dort aus einen kurzen zufälligen Spaziergang der Länge und führen Sie auf den Seeds aus, die den Knoten auf dem Pfad entsprechen, bevor Sie eine Mehrheitsentscheidung treffen. Dies erfordert Bits der Zufälligkeit und vergrößert die Laufzeit um einen Faktor.
Führen Sie auf allen Nachbarn des aktuellen Knotens (oder allgemeiner auf allen Knoten in einem Abstand zum aktuellen Knoten) aus, bevor Sie eine Mehrheitsentscheidung treffen. Dies erfordert Bits der Zufälligkeit und erhöht die Laufzeit um einen Faktor, wobei der Grad (oder für die Entfernung Nachbarschaft) ist. Wenn die Parameter gut eingestellt werden, kostet dies hier.
Ich interessiere mich für die letzte Kugel, die einer deterministischen Fehlerreduzierung entspricht. Hat es nach [1] eine Verbesserung gegeben, die die Abhängigkeit von von verringert ? Was ist aktuell am besten erreichbar - für welches ? ? (Für ? Für ?)
Hinweis: Ich interessiere mich auch (sehr) für anstelle von . Wie in [2] eingeführt, handelt es sich bei der relevanten Konstruktion dann nicht mehr um Expander, sondern um Dispergierer (siehe z. B. diese Vorlesungsnotizen von Ta-Shma, insb. Tabelle 3). Ich konnte jedoch weder die entsprechenden Grenzen für die deterministische (kein einziges zufälligeres Bit als das zulässige ) Verstärkung finden, noch (was noch wichtiger ist), welche expliziten Dispergiererkonstruktionen nach dem Stand der Technik für den relevanten Bereich von Parametern vorliegen .
[1] Karp, R., Pippenger, N. und Sipser, M., 1985. Ein Kompromiss zwischen Zeit und Zufälligkeit . In der AMS-Konferenz über probabilistische Computerkomplexität (Band 111).
[2] Cohen, A. und Wigderson, A., 1989, Oktober. Disperser, deterministische Verstärkung und schwache Zufallsquellen. In 30th Annual Symposium on Foundations of Computer Science (S. 14-19). IEEE.
quelle
Antworten:
Gibt van Melkebeeks Vorlesungsskript nicht bereits eineO(1/δ) -Grenze an? Die dortige Schranke ist λ höchstens O(δ√) und wir könnenλ=O(1/d−−√) Verwendung bestehender Konstruktionen.
Auch in Dworks Vorlesungsskripten ist die Bedingung, dass die Ausdehnung für eine Konstante CC/δ (bei Betrachtung eines Punktes im Abstand c wird im Wesentlichen die Potenzierung verwendet, um die Ausdehnung zu verbessern). Was wiederum mit Grad O ( 1 / δ ) erreicht werden kann .C O(1/δ)
quelle