Welche Beziehung besteht zwischen DNA-Algorithmen und den Komplexitätsklassen, die mit Turing-Maschinen definiert wurden? Womit korrespondieren die Komplexitätsmaße wie Zeit und Raum in DNA-Algorithmen? Können damit Fälle von NP-vollständigen Problemen wie TSP gelöst werden, die von Neumann-Maschinen in der Praxis nicht realisierbar sind?
cc.complexity-theory
np-hardness
natural-computing
tsp
Aadita Mehra
quelle
quelle
Antworten:
Soundbite-Antwort: DNA-Computing bietet keinen Zauberstab, um NP-vollständige Probleme zu lösen, auch wenn einige angesehene Forscher in den 1990er-Jahren dies für eine Weile für möglich hielten.
Das erste DNA-Computerexperiment wurde in einem Labor unter der Leitung des bekannten Zahlentheoretikers Len Adleman durchgeführt. Adleman löste ein kleines Problem mit Handlungsreisenden - ein bekanntes NP-vollständiges Problem, und er und andere dachten eine Weile, die Methode könnte sich vergrößern. Adleman beschreibt seinen Ansatz in diesem kurzen Video , das ich faszinierend finde. Das Problem, auf das sie stießen, war, dass sie mehr DNA als die Größe der Erde benötigen würden, um ein TSP-Problem von bescheidener Größe zu lösen. Sie hatten einen Weg gefunden, Zeit zu sparen, indem sie den parallelen Arbeitsaufwand erhöhten. Dies bedeutete jedoch nicht, dass das TSP-Problem weniger als exponentielle Ressourcen zur Lösung benötigte. Sie hatten nur die exponentiellen Kosten von der Zeitmenge auf die Menge des physischen Materials verlagert.
(Es gibt eine zusätzliche Frage: Wenn Sie eine exponentielle Menge an Maschinen benötigen, um ein Problem zu lösen, benötigen Sie automatisch eine exponentielle Menge an Zeit oder zumindest eine Vorverarbeitung, um die Maschinen überhaupt zu bauen? Ich überlasse diese Frage eine Seite allerdings.)
Dieses allgemeine Problem - die Zeit zu reduzieren, die eine Berechnung auf Kosten einer anderen Ressource benötigt - hat sich in biologisch inspirierten Computermodellen vielfach gezeigt. Die Wikipedia-Seite über Membran-Computing (eine Abstraktion einer biologischen Zelle) besagt, dass eine bestimmte Art von Membransystem in der Lage ist, NP-vollständige Probleme in der Polynomzeit zu lösen. Dies funktioniert, weil dieses System die Erzeugung von exponentiell vielen Unterobjekten innerhalb einer Gesamtmembran in Polynomzeit ermöglicht. Nun ... wie kommt eine exponentielle Menge an Rohmaterial von der Außenwelt an und tritt durch eine Membran mit konstanter Oberfläche ein? Antwort: Es wird nicht berücksichtigt. Sie zahlen nicht für eine Ressource, die die Berechnung sonst erfordern würde.
Um schließlich auf Anthony Labarre zu antworten, der mit einem Artikel über AHNEPs verlinkt ist, können NP-vollständige Probleme in der Polynomzeit gelöst werden. Es gibt sogar eine Veröffentlichung darüber, dass AHNEPs 3SAT in linear lösen könnenZeit. AHNEP = Akzeptanz eines hybriden Netzwerks evolutionärer Prozessoren. Ein Evolutionsprozessor ist ein von der DNA inspiriertes Modell, dessen Kern eine Zeichenfolge aufweist, die bei jedem Schritt durch Substitution, Deletion oder (wichtig) Insertion geändert werden kann. Ferner ist an jedem Knoten eine beliebig große Anzahl von Zeichenfolgen verfügbar, und bei jedem Kommunikationsschritt senden alle Knoten alle ihre korrekten Zeichenfolgen an alle angeschlossenen Knoten. Ohne Zeitaufwand ist es also möglich, exponentielle Informationsmengen zu übertragen, und aufgrund der Einfügungsregel können einzelne Zeichenfolgen im Laufe der Berechnung immer größer werden, so dass es ein Doppelschlag ist.
Wenn Sie sich für neuere Arbeiten im Bereich Biocomputation interessieren, die von Forschern durchgeführt werden, die sich auf praxisnahe Berechnungen konzentrieren, kann ich diese Buchbesprechung anbieten , die ich kürzlich für SIGACT News geschrieben habe und die mehrere Bereiche kurz anspricht.
quelle
Dies hängt sehr stark von Ihrem Modell ab.
In der Realität folgt DNA-Computing (nicht-relativistischen) physikalischen Gesetzen und kann so auf einem Quantencomputer simuliert werden. Das Beste, auf das Sie hoffen können, ist, dass es BQP-vollständige Probleme lösen kann. Es ist jedoch sehr unwahrscheinlich, dass dies zutrifft (DNA ist ziemlich groß und Kohärenz ist daher kein wirkliches Problem), und bei der Simulation ist dies mit ziemlicher Sicherheit P. Es ist jedoch wichtig zu beachten, dass dies Effizienz in Bezug auf Effizienz ist von der Anzahl der verwendeten Atome, und offen gesagt, Atome sind so billig, dass diese Anzahl astronomisch ist, was eine praktische Simulation eines mit DNA gefüllten Reagenzglases weit außerhalb des Bereichs von dem macht, was derzeit möglich ist.
Infolgedessen entscheiden sich viele Menschen dafür, mit Modellen zu arbeiten, die ungefähr dem entsprechen, was in der Praxis recht gut funktioniert, aber bei extremen Belastungen brechen. Ein Beispiel hierfür ist das abstrakte Kachelmodell, das sich als NEXP-vollständig herausstellt (siehe Gottesmans und Irans Aufsatz vom FOCS im letzten Jahr).
quelle
Dies ist eine teilweise Antwort
Aus dem von Ihnen erwähnten Wikipedia-Artikel geht hervor, dass molekulare DNA-Berechnungsalgorithmen, die NP-vollständige Probleme lösen, nicht beweisen, dass NP-vollständige Probleme in der Polynomzeit auf sequentiellen Maschinen lösbar sind (vorausgesetzt, in der Praxis bedeutet dies Polynomzeit). DNA-Computing kann als Form Parallel Computing betrachtet werden. Schließlich ist DNA-Computing aus Sicht der Berechenbarkeitstheorie nicht leistungsfähiger als Turing-Maschinen.
quelle
Dieses Papier könnte für Sie interessant sein - ich wäre übrigens dankbar, wenn jemand die schockierende Aussage, aus der der Titel besteht, klarstellen könnte.
quelle