Wie viele binäre Gatter sind mindestens erforderlich, um UND und ODER von Eingangsbits gleichzeitig zu berechnen ? Die triviale Obergrenze ist . Ich glaube, das ist optimal, aber wie kann man das beweisen? Die Standard-Gate-Eliminierungstechnik funktioniert hier nicht, da durch Zuweisen einer Konstanten zu einer der Eingangsvariablen einer der Ausgänge trivialisiert wird.
Das Problem wird auch als Übung 5.12 im Buch "Komplexität boolescher Funktionen" von Ingo Wegener in etwas anderer Form angegeben: "Sei . Mit der Eliminierungsmethode kann man nur eine untere Schranke der Größe beweisen. Versuchen Sie, größere untere Schranken zu beweisen. "
cc.complexity-theory
lower-bounds
circuit-complexity
Alexander S. Kulikov
quelle
quelle
Antworten:
Dieses Papier von Blum & Seysen kann nützlich sein:
N. Blum, M. Seysen. Charakterisierung aller optimalen Netzwerke zur simultanen Berechnung von AND und NOR . Acta Inf. 21: 171-181 (1984)
Ich habe gedacht , dass für 2 n - c gebunden senken Methoden von Blum & Seysen erhalten werden kann , verwendet wird , aber es scheint dies nicht der Fall ist.x1…xn∨x¯1…x¯n 2n−c
quelle
Der clevere Algorithmus, der die obere Schranke beweist, übersetzt in eine UND / ODER-Schaltung mit derselben Schranke, die Sie erhalten, da einer der Vergleiche sowohl ein Minimum als auch ein Maximum berechnet.
Die obere Grenze wird in "Einführung in Algorithmen" angezeigt, wo Sie auch das einfache Argument finden, das zeigt, dass Max / Min-Komparatorschaltungen gültig sind, wenn sie für boolesche Eingaben funktionieren (verwenden Sie einen geeigneten Schwellenwert). Die untere Schranke finden Sie zB hier .
quelle