Fixed Parameter und Approximation sind völlig unterschiedliche Ansätze zur Lösung schwieriger Probleme. Sie haben unterschiedliche Motivation. Die Approximation sucht ein schnelleres Ergebnis mit einer ungefähren Lösung. Ein fester Parameter sucht nach einer exakten Lösung mit Zeitkomplexität in Bezug auf die Exponential- oder eine Funktion von k und die Polynomfunktion von n, wobei n die Eingabegröße und k der Parameter ist. Beispiel .
Nun meine Frage, gibt es eine obere oder gebundene Ergebnis senken basierend auf der Beziehung zwischen den festen Parameter und Annäherung nähert oder sie völlig haben keine relationship.For Beispiel für ein Problem wird gesagt, dass W [ i ] hart für einige i > 0 hat nichts mit C-Approximationsalgorithmus oder PTAS zu tun. Bitte geben Sie einige Referenzen an
quelle
Antworten:
Es gibt verschiedene Zusammenhänge zwischen parametrisierter Komplexität und Approximationsalgorithmen.
Betrachten Sie zunächst die sogenannte Standardparametrierung eines Problems. Hier ist der Parameter, den Sie in der Optimierungsversion des Problems optimieren würden (Größe der Scheitelpunktabdeckung für das Scheitelpunktabdeckungsproblem, Breite der Baumzerlegung für das Treewidth-Problem usw.). Betrachten wir konkret Vertex Cover. Jeder Kernel mit einer linearen Anzahl von Scheitelpunkten für Vertex Cover impliziert einen konstanten Algorithmus für die Polynomzeitnäherung: Fügen Sie in die Näherungslösung alle Scheitelpunkte ein, die durch den Kernelisierungsalgorithmus in die Lösung gezwungen wurden, und alle Scheitelpunkte der kernelisierten Instanz . Andererseits implizieren Untergrenzen für den Approximationsfaktor Untergrenzen für die Größe eines Kernels. Zum Beispiel unter der Unique Games Conjecture, Khot und Regev (JCSS 2008)Ausschluss von Approximationsalgorithmen für Vertex Cover mit einem Verhältnis von , wodurch ein Kernel für Vertex Cover mit höchstens c k Vertices, c < 2, ausgeschlossen wirdc<2 ck c<2 , ausgeschlossen wird.
EDIT: Die Argumentation für die Kernel-Untergrenze im vorigen Absatz ist sehr informell, und meines Wissens ist offen, ob solche Untergrenzen für die Kernelgröße auch für Vertex Cover bewiesen werden können. Wie @Falk in den Kommentaren betont, gilt das Argument für die meisten (alle?) Bekannten Kernel. Ich verstehe jedoch nicht, wie man die Existenz von Kernelisierungsalgorithmen ausschließen könnte, bei denen eine realisierbare Lösung der kernelisierten Instanz ein anderes Näherungsverhältnis aufweist als die entsprechende Lösung in der ursprünglichen Instanz.
Dann gibt es die Ausgabe von PTAS gegen FPTAS. Wenn wir eine Lösung innerhalb von vom Optimum finden wollen, können wir mit 1 / ϵ parametrieren . Dann entspricht ein PTAS einem XP-Algorithmus in der parametrisierten Einstellung, während ein FPTAS einem FPT-Algorithmus entspricht. Für eine untere Annäherungsgrenze können wir für kein Problem, dessen Standardparametrisierung W [1] -hart ist, ein EPTAS erwarten: Ausführen des EPTAS mit ϵ = 1 / ( k + 1 )(1+ϵ) 1/ϵ ϵ=1/(k+1) würde das Problem genau in der FPT-Zeit lösen.
Schließlich ist ein FPT-Approximationsalgorithmus ein Algorithmus mit einer FPT-Laufzeit und einem Approximationsverhältnis, das von dem Parameter abhängen kann. Beispielsweise hat die Standardparametrierung des Cliquewidth-Problems einen FPT-Approximationsalgorithmus mit einem Approximationsverhältnis (Oum, WG 2005) , während die Standardparametrierung des Independent Dominating Set keinen FPT-Approximationsalgorithmus mit hat Leistungsverhältnis g ( k ) für eine berechenbare Funktion g , außer FPT = W [2] (Downey et al., IWPEC 2006) . Siehe (Marx, The Computer Journal 2008)(23k+2−1)/k g(k) g für eine Umfrage zur FPT-Annäherung.
quelle
Weitere Charakterisierungen für zwei Approximationsklassen werden in [2, Theorem 6.5] vorgeschlagen.
quelle