Ein bekanntes Merkmal von SAT-Instanzen ist das Verhältnis der Anzahl von Sätzen zur Anzahl von Variablen , dh der Quotient . Für jedes gibt es einen Schwellenwert st \ für , die meisten Instanzen sind erfüllbar und für meisten Instanzen nicht erfüllbar. Es wurde eine Menge Forschung für Probleme durchgeführt, bei denen , und für Probleme mit ausreichend kleinem ,-SAT wird in der Polynomzeit lösbar. Siehe zum Beispiel den Umfrageartikel von Dimitris Achlioptas aus dem Handbuch der Zufriedenheit ( PDF ).
Ich frage mich, ob in die andere Richtung gearbeitet wurde (wo ), z. B. ob wir das Problem in diesem Fall irgendwie von CNF in DNF umwandeln können, um es schnell zu lösen.
Also, im Wesentlichen, Was ist in Bezug auf SAT bekannt , wo ?
cc.complexity-theory
sat
random-k-sat
phase-transition
Matt Groff
quelle
quelle
Antworten:
Ja, das gab es schon. Moshe Vardi hielt kürzlich einen Umfragevortrag auf dem BIRS-Workshop Theoretische Grundlagen des angewandten SAT-Lösens :
(Moshe präsentiert die Grafik ihres Experiments kurz nach 14.30 Uhr in seinem oben verlinkten Vortrag.)
Es sei die Klauselquote. Wenn der Wert von über den Schwellenwert hinaus ansteigt, wird das Problem für vorhandene SAT-Löser einfacher, jedoch nicht so einfach wie vor Erreichen des Schwellenwerts. Der Schwierigkeitsgrad steigt sehr stark an, wenn wir uns der Schwelle von unten nähern. Nach der Schwelle wird das Problem im Vergleich zur Schwelle leichter, aber die Abnahme der Schwierigkeit ist viel weniger steil.ρρ ρ
Sei die Schwierigkeit des Problems bezüglich (in ihrem Experiment ist die mittlere Laufzeit von GRASP auf zufälligen 3SAT-Instanzen mit dem Klauselverhältnis ). Moshe schlägt vor, dass sich wie folgt ändert:n T ρ ( n ) ρ T ρ ( n )Tρ(n) n Tρ(n) ρ Tρ(n)
quelle
Es gibt mindestens zwei Forschungslinien in Bezug auf zufälliges für Formeln mit einem Verhältnis von Klausel zu Variable, das über der Erfüllbarkeitsschwelle liegt:k-SAT
quelle
Hier ist eine ältere, aber relevante Studie / Sichtweise eines führenden Experten.
er zeigt den Parameter schätzt die Anzahl der Lösungen und misst "Constrainedness" und korreliert / tendiert ungefähr mit dem Verhältnis von Klausel zu Variable. Siehe insbesondere Seite 3, Abb. 4κ
Die Frage fragt nach . Aus der empirischen Analyse ist jedoch bekannt, dass diese stark überfordert sind und sich daher P-Zeit-Instanzen im Grunde nähern (ein Löser "entdeckt", dass sie unlösbar sind) und daher nicht so theoretisch interessant sind (weil sie die Exponentialzeit nicht "auslösen / ausüben") -Verhalten von Lösern im Durchschnitt). Ich habe jedoch noch keine Artikel / Transformationen / Theorien gesehen, die dies theoretisch / rigoros belegen (abgesehen von diesem Artikel als Anfang).m/n≫α
quelle