Wurden Untersuchungen zu SAT oberhalb der Erfüllbarkeitsschwelle durchgeführt?

25

Ein bekanntes Merkmal von SAT-Instanzen ist das Verhältnis der Anzahl von Sätzen zur Anzahl von Variablen , dh der Quotient . Für jedes gibt es einen Schwellenwert st \ für , die meisten Instanzen sind erfüllbar und für meisten Instanzen nicht erfüllbar. Es wurde eine Menge Forschung für Probleme durchgeführt, bei denen , und für Probleme mit ausreichend kleinem ,kmnρ=m/nkαραραραρk-SAT wird in der Polynomzeit lösbar. Siehe zum Beispiel den Umfrageartikel von Dimitris Achlioptas aus dem Handbuch der Zufriedenheit ( PDF ).

Ich frage mich, ob in die andere Richtung gearbeitet wurde (wo ), z. B. ob wir das Problem in diesem Fall irgendwie von CNF in DNF umwandeln können, um es schnell zu lösen.ρα

Also, im Wesentlichen, Was ist in Bezug auf SAT bekannt , wo ?ρ=m/nα

Matt Groff
quelle
10
Es ist erwähnenswert, dass eine Funktion von . kαk
Huck Bennett
Könnte es eine Transformation geben, die eine gewisse Symmetrie zwischen den beiden Regionen auf beiden "Seiten" des Übergangspunkts aufweist? scheint plausibel. jedenfalls ist die frage ziemlich weit
gefasst

Antworten:

26

Ja, das gab es schon. Moshe Vardi hielt kürzlich einen Umfragevortrag auf dem BIRS-Workshop Theoretische Grundlagen des angewandten SAT-Lösens :

(Moshe präsentiert die Grafik ihres Experiments kurz nach 14.30 Uhr in seinem oben verlinkten Vortrag.)

Es sei die Klauselquote. Wenn der Wert von über den Schwellenwert hinaus ansteigt, wird das Problem für vorhandene SAT-Löser einfacher, jedoch nicht so einfach wie vor Erreichen des Schwellenwerts. Der Schwierigkeitsgrad steigt sehr stark an, wenn wir uns der Schwelle von unten nähern. Nach der Schwelle wird das Problem im Vergleich zur Schwelle leichter, aber die Abnahme der Schwierigkeit ist viel weniger steil.ρρρ

Sei die Schwierigkeit des Problems bezüglich (in ihrem Experiment ist die mittlere Laufzeit von GRASP auf zufälligen 3SAT-Instanzen mit dem Klauselverhältnis ). Moshe schlägt vor, dass sich wie folgt ändert:n T ρ ( n ) ρ T ρ ( n )Tρ(n)nTρ(n)ρTρ(n)

  • T ρ ( n ) nρ die Schwelle: ist Polynom in ,Tρ(n)n
  • T ρ ( n ) nρ ist nahe der Schwelle: ist in exponentiell ,Tρ(n)n
  • T ρ ( n ) n ρρ der Schwellenwert: bleibt in exponentiell, aber der Exponent nimmt ab, wenn zunimmt.Tρ(n)nρ
Kaveh
quelle
1
Es sollte beachtet werden, dass die obigen Ergebnisse experimentelle Ergebnisse (von ungefähr 2000) sind, die einen spezifischen SAT-Löser (GRASP) verwenden. Theoretisch ist jedoch bekannt, dass für eine ausreichend große (z. B. ) auch die Auflösung nur geringe Widerlegungen der Unzufriedenheit aufweist. Und wie Jan Johannsem bereits schrieb, ist es (im Durchschnitt) einfach , 3-SAT zu widerlegen, wenn . Ω ( n ) ρ = Ω ( ρΩ(n)ρ=Ω(n)
Iddo Tzameret
19

Es gibt mindestens zwei Forschungslinien in Bezug auf zufälliges für Formeln mit einem Verhältnis von Klausel zu Variable, das über der Erfüllbarkeitsschwelle liegt:k-SAT

  • Für solche Formeln wurden untere Grenzen der Länge von Widerlegungen in der Auflösung und stärkere aussagenbezogene Beweissysteme gezeigt, beginnend mit dem Aufsatz " Viele harte Beispiele für die Auflösung " von Chvátal und Szemerédi. Diese unteren Auflösungsgrenzen bedeuten niedrigere Grenzen für die Laufzeit von DPLL- und CDCL-basierten SAT-Solvern. Die stärksten unteren Schranken gelten für die Polynomrechnung aufgrund von Ben-Sasson und Impagliazzo .
  • Für solche Formeln gibt es effiziente deterministische Algorithmen zur Bestätigung der Unzufriedenheit, dh Algorithmen, die entweder "UNSAT" oder "Weiß nicht" ausgeben, wobei die Antwort "UNSAT" korrekt sein muss und "UNSAT" am ausgeben muss unbefriedigende Formeln mit hoher Wahrscheinlichkeit. Die stärksten Ergebnisse in dieser Richtung gehen auf Feige und Ofek zurück .
Jan Johannsen
quelle
Es ist vielleicht erwähnenswert, dass Chvátal / Szemerédi zeigen, dass whp eine zufällige SAT-Formel mit befriedigend ist. Feige und Ofek geben einen spektralen Algorithmus an, wenn . Es bleibt also eine Lücke zwischen und in der fast jede Formel unbefriedigend ist, aber wir wissen nicht, wie wir das . m / n c 1 m / n c 2 n 1 / 2 km/nc1m/nc2n1/2 c1nc2n 3 / 2nc1nc2n3/2
András Salamon
2

Hier ist eine ältere, aber relevante Studie / Sichtweise eines führenden Experten.

er zeigt den Parameter schätzt die Anzahl der Lösungen und misst "Constrainedness" und korreliert / tendiert ungefähr mit dem Verhältnis von Klausel zu Variable. Siehe insbesondere Seite 3, Abb. 4κ

In Abbildung 4 zeichnen wir die geschätzte Einschränkung im heuristischen Zweig für zufällige 3-SAT-Probleme auf. Für L / N <4,3 sind die Probleme unterbeschränkt und lösbar. Mit fortschreitender Suche nimmt ab, wenn die Probleme unterfordert und offensichtlich lösbar werden. Für L / N> 4.3 sind die Probleme überfordert und unlösbar. Mit fortschreitender Suche nimmt zu, wenn die Probleme überfordert und offensichtlich unlösbar werden.κκκ

Die Frage fragt nach . Aus der empirischen Analyse ist jedoch bekannt, dass diese stark überfordert sind und sich daher P-Zeit-Instanzen im Grunde nähern (ein Löser "entdeckt", dass sie unlösbar sind) und daher nicht so theoretisch interessant sind (weil sie die Exponentialzeit nicht "auslösen / ausüben") -Verhalten von Lösern im Durchschnitt). Ich habe jedoch noch keine Artikel / Transformationen / Theorien gesehen, die dies theoretisch / rigoros belegen (abgesehen von diesem Artikel als Anfang).m/nα

vzn
quelle
Andererseits ist es vermutlich möglich, einzelne "harte" Instanzen von jeder m / n "Dimension" zu erzeugen, und es ist nur statistisch weniger wahrscheinlich, dass sie sich außerhalb des "P-NP-P" -Phasenübergangs befinden.
VZN