Erweiterte kirchentürmende These

35

Eine der am häufigsten diskutierten Fragen auf der Website war, was es bedeuten würde, die kirchentürmende These zu widerlegen . Dies liegt zum Teil daran, dass Dershowitz und Gurevich 2008 einen Beweis für die kirchliche These veröffentlicht haben, dass es sich um das Bulletin of Symbolic Logic handelt. - schamlose Eigenwerbung - ein Blogeintrag, den ich geschrieben habe.)

Bei dieser Frage handelt es sich um die Extended Church-Turing Thesis, die, wie von Ian Parberry formuliert, lautet:

Die Zeit auf allen "vernünftigen" Maschinenmodellen ist durch ein Polynom verbunden.

Dank Giorgio Marinelli erfuhr ich, dass einer der Mitautoren des vorherigen Artikels, Dershowitz, und ein Doktorand von ihm, Falkovich, einen Beweis für die Extended Church-Turing Thesis veröffentlicht haben, die gerade im Workshop Developments of Rechenmodelle 2011 .

Ich habe das Papier heute Morgen gerade ausgedruckt und es überflogen, sonst nichts. Die Autoren behaupten, dass Turing-Maschinen jedes sequentielle Rechengerät mit höchstens polynomiellem Overhead simulieren können. Quantenberechnung und groß angelegte Parallelberechnung werden ausdrücklich nicht behandelt. Meine Frage bezieht sich auf die folgende Aussage im Papier.

Wir haben - wie vermutet und allgemein angenommen - gezeigt, dass jede effektive Implementierung, unabhängig von den verwendeten Datenstrukturen, von einer Turing-Maschine simuliert werden kann, wobei der zeitliche Aufwand höchstens polynomiell ist.

Meine Frage: Ist dies wirklich "weit verbreitet", selbst im Fall von "wirklich" sequentieller Berechnung ohne Randomisierung? Was ist, wenn die Dinge zufällig sind? Quantencomputing wäre ein wahrscheinliches Gegenbeispiel, wenn es tatsächlich instanziiert werden kann, aber gibt es Möglichkeiten, die "schwächer" sind als Quanten, die auch Gegenbeispiele sind?

Aaron Sterling
quelle
1
Es wurde viel über die Derandomisierung oder Herausnahme der Zufallskomponenten von Zufallsalgorithmen diskutiert. Siehe zum Beispiel ( bit.ly/rjx5YZ ) Ich habe Lance Fortnow in der Midwest-Theorie einmal die Frage nach der Dequantisierung gestellt, und das war bedeutungslos. Aber es hat hier eine gute Diskussion ausgelöst, siehe ( bit.ly/nT0BnK ) Aber es gibt fruchtbarere Wege. Ein Beispiel für eine schwächere Möglichkeit, die etwas mit Quantenalgorithmen zu tun hat, gibt der Leslie Valiant Turing-Preisträger 2011 ( bit.ly/nSyffN ).
Joshua Herman
1
@Joshua, die ACM hat gerade Valiants Turing Lecture 2011 veröffentlicht (URL: awards.acm.org/… ); es lohnt sich anzuschauen. Für eine angewandte Perspektive siehe die jüngsten JMR-Artikel von Ilya Kuprov und Mitarbeitern: Polynomial skalierender Spin-Dynamik-Simulationsalgorithmus basierend auf adaptiver State-Space-Restriktion und Polynomial skalierender Spin-Dynamik II: Weitere State-Space-Komprimierung unter Verwendung von Krylov-Subraum-Techniken und Nullspur-Eliminierung . Diese langsame Konvergenz von "reinem" und "angewendetem" CT / QIT ist praktisch wichtig und macht auch viel Spaß.
John Sidles

Antworten:

44

Vorbereitungszeremonie

Ich muss Ihnen sagen, ich sehe nicht, wie das Sprechen über "Beweise" des CT oder des ECT diese Diskussion beleuchtet. Solche "Beweise" sind in der Regel genau so gut wie die Annahmen, auf denen sie beruhen - mit anderen Worten, was sie als "Berechnung" oder "effiziente Berechnung" bezeichnen. Warum also nicht gleich zu einer Diskussion der Annahmen übergehen und auf das Wort "Beweis" verzichten?

Das war schon mit dem Original-CT klar, aber mit dem ECT ist es noch klarer - da das ECT nicht nur "philosophisch unbeweisbar" ist, sondern heute allgemein als falsch gilt! Für mich ist Quantencomputing das riesige, krasse Gegenbeispiel, das der Ausgangspunkt für jede moderne Diskussion über das ECT sein sollte, nicht etwas, das zur Seite gerückt ist. Das Papier von Dershowitz und Falkovich geht jedoch erst im letzten Absatz auf die Qualitätskontrolle ein:

    Das obige Ergebnis deckt keine groß angelegte parallele Berechnung ab, wie beispielsweise eine Quantenberechnung, da davon ausgegangen wird, dass der Grad der Parallelität mit der Anzahl der vom Algorithmus festgelegten kritischen Terme fest verbunden ist. Die Frage der relativen Komplexität paralleler Modelle wird in naher Zukunft weiter verfolgt.

Ich fand das oben Gesagte sehr irreführend: QC ist kein "Parallelmodell" im herkömmlichen Sinne. In der Quantenmechanik gibt es keine direkte Kommunikation zwischen den "parallelen Prozessen" - nur Interferenzen von Amplituden -, aber es ist auch einfach, eine exponentielle Anzahl von "parallelen Prozessen" zu erzeugen. (In der Tat könnte man sich jedes physikalische System im Universum so vorstellen, wie wir es tun!) Was auch immer Sie über die Interpretation der Quantenmechanik (oder sogar ihrer Wahrheit oder Lüge) denken, es ist klar, dass es eines separaten Systems bedarf Diskussion!

Nun zu deinen (interessanten) Fragen!

Nein, ich kenne kein überzeugendes Gegenbeispiel zum ECT außer Quanten-Computing. Mit anderen Worten, wenn die Quantenmechanik falsch gewesen wäre (auf eine Weise, die das Universum auf der Planck-Skala immer noch "digitaler" als "analog" hielt - siehe unten), dann wäre die ECT, wie ich es verstehe, immer noch nicht so "beweisbar" (da es immer noch auf empirischen Fakten darüber ankommt, was in der physischen Welt effizient berechenbar ist), aber es wäre eine gute Arbeitshypothese.

Die Randomisierung stellt die ECT wahrscheinlich nicht in Frage, wie es herkömmlicherweise verstanden wird, da es heute starke Beweise dafür gibt, dass P = BPP. (Beachten Sie jedoch, dass die Randomisierung nachweislich einen großen Unterschied machen kann , wenn Sie sich für andere Einstellungen als für Sprachentscheidungsprobleme interessieren, z. B. für Beziehungsprobleme, Entscheidungsbäume oder die Komplexität der Kommunikation. Diese Einstellungen sind durchaus vernünftig.) diejenigen, über die man sprechen kann; sie sind einfach nicht die, die die Leute normalerweise im Sinn haben, wenn sie über das ECT diskutieren.)

Die andere Klasse von "Gegenbeispielen" zum ECT, die oft angesprochen wird, beinhaltet analoges oder "hyper" -Computing. Ich bin der Ansicht, dass nach unserem derzeitigen Kenntnisstand das analoge Rechnen und das Hypercomputing nicht skalierbar sind , und der Grund, warum dies ironischerweise nicht möglich ist, ist die Quantenmechanik! Insbesondere, obwohl wir noch keine Quantentheorie der Schwerkraft haben, deutet das heutige Wissen darauf hin, dass es grundlegende Hindernisse gibt, mehr als 10 43 Rechenschritte pro Sekunde auszuführen oder Entfernungen aufzulösen, die kleiner als 10 -33 cm sind.

Schließlich , wenn Sie die Diskussion etwas zu übernehmen wollen , die eine plausible oder interessante Herausforderung für die ECT sein könnten, und nur seriell, diskrete, deterministische Berechnung erlaubt, dann bin ich mit Dershowitz und Falkovich , dass die ECT hält! :-) Aber selbst dort ist es schwer vorstellbar, dass ein "formaler Beweis" mein Vertrauen in diese Aussage stärkt - das eigentliche Problem ist wiederum, was wir unter Worten wie "seriell", "diskret" und "deterministisch" verstehen gemein .

Wie für Ihre letzte Frage:

    Quantencomputing wäre ein wahrscheinliches Gegenbeispiel, wenn es tatsächlich instanziiert werden kann, aber gibt es Möglichkeiten, die "schwächer" sind als Quanten, die auch Gegenbeispiele sind?

Heutzutage gibt es viele interessante Beispiele für physikalische Systeme, mit denen ein Teil des Quantencomputers implementiert werden kann , jedoch nicht alle (was zu Komplexitätsklassen führt, die möglicherweise zwischen BPP und BQP liegen). Darüber hinaus sind viele dieser Systeme möglicherweise einfacher zu realisieren als eine vollständige universelle Qualitätskontrolle. Siehe zum Beispiel dieses Papier von Bremner, Jozsa und Shepherd oder dieses von Arkhipov und mir.

Scott Aaronson
quelle
3
Über "Beweise": Ich sehe das Forschungsprogramm von Dershowitz et al. Als Versuch, ein "ZF für Algorithmen" zu erstellen, um den intuitiven Begriff "Algorithmus" zu axiomatisieren. Dann können wir uns darüber streiten, ob wir Choice oder Determinacy einbeziehen oder ob es einen großen Kardinal gibt - was auch immer die Informatik-Analoga dieser Dinge sein mögen. Ich glaube, dass die Art und Weise, wie diese Axiomatisierung dargestellt wird, ergebnisorientiert ist ("Schauen Sie, wir können diese berühmte These beweisen"), aber die Autoren des CT-Dissertationspapiers versuchen, ihre Annahmen historisch zu begründen.
Aaron Sterling
1
@Scott Aaronson Interessante und aufschlussreiche Sicht auf die Qualitätskontrolle. Nur neugierig. Was würde es bedeuten, um zu zeigen, dass QC kein Gegenbeispiel sein kann?
vs
10
Sie meinen, QC zu zeigen ist unmöglich? Zumindest würde es eine ernsthafte Überarbeitung unseres Verständnisses der Quantenmechanik erfordern. Dies könnte die Entdeckung einer neuen physikalischen Theorie bedeuten, die das QM ablöste (und so BPP als Berechnungsgrenze wiederherstellte), oder eines noch unentdeckten Prinzips, das "neben" oder "neben" QM arbeitet und das QC nicht zuließ. Wie auch immer, Nobelpreise! :)
Scott Aaronson
Wie dein Kommentar. Müssen mehr auf QC graben. Ich bin in diesem Thema sehr naiv.
gegen
1
Ein weiteres interessantes Quantenmodell zwischen vollständiger Quantenberechnung und Klassik sind auf Quantendiskord basierende Modelle wie DQC1.
Marcos Villagra
5

Diese Antwort ist als Ergänzung zu Scott Aaronsons Antwort gedacht (der ich hauptsächlich zustimme).

Aus technischer Sicht fällt auf, dass der Artikel von Dershowitz / Falkovich das Wort "zufällig" nur im Sinne von "Direktzugriffsspeicher" verwendet und der Artikel darüber hinaus nicht das Wort "Stichprobe" (oder eines seiner Wörter) verwendet Varianten) überhaupt. Vielmehr beschränkt sich der Fokus der Dershowitz / Falkovic-Analyse ausschließlich auf die Berechnung numerischer Funktionen.

Diese Einschränkung ist auffällig, da die große Mehrheit der modernen MINT-Rechenressourcen (ich wage zu sagen) die Beschränkung auf numerische Funktionen nicht beachtet, sondern sich eher der Erzeugung von Proben aus Verteilungen widmet (z. B. Molekulardynamik, turbulenter Fluidfluss, Bruchausbreitung) rauschende Spin-Systeme, sowohl klassische als auch Quanten-Spin-Systeme, Wellen, die sich durch zufällige Medien ausbreiten usw.).

Wenn die "Extended Church-Turing Thesis" (ECT) eine wesentliche Relevanz für MINT-Berechnungen haben soll, die allgemein definiert sind, sollte daher möglicherweise die ausschließliche Beschränkung auf numerische Funktionen aufgehoben und eine allgemeine Erklärung der ECT abgegeben werden, die Stichproben umfasst Berechnungen (und deren Validierung und Verifizierung).

Würde diese für die Stichprobenerfassung verallgemeinerte Version des ECT immer noch in den Zuständigkeitsbereich von TCS fallen, wie dies traditionell gedacht ist? Die Antwort lautet anscheinend "Ja" gemäß den häufig gestellten Fragen zu TCS Stack Exchange :

Wir verweisen auf die Beschreibung der ACM Special Interest Group für Algorithmen und Berechnungstheorie (SIGACT). TCS deckt eine Vielzahl von Themen ab, einschließlich probabilistischer Berechnungen. Die Arbeit auf diesem Gebiet [TCS] zeichnet sich häufig durch ihre Betonung auf Mathematik aus Technik und Strenge.
Diese Überlegungen legen nahe, dass Analysen der ECT, um für praktische MINT-Berechnungen relevant zu sein, explizite Überlegungen zur Stichprobenvalidierung und -verifizierung einschließen sollten ... und wir können davon ausgehen, dass diese Erweiterung der ECT sowohl mit schönen mathematischen Theoremen als auch mit schönen zu anregenden körperlichen Einsichten.

John Sidles
quelle
0

ECTT{0,1,+,×}ECTT, das besagt, dass dieses Prädikat der Vernünftigkeit von genau jenen Modellen erfüllt wird, die eine polynomielle Zeitumsetzung zu einer Turing-Maschine haben. Als Axiom ist es nicht fälschbar im Sinne unserer Theorie, wenn wir in der Lage sind, ihr zu widersprechen, solange die Theorie anfangs konsistent war, aber die Richtigkeit unserer Theorie ist fälschbar: Möglicherweise gibt es ein vernünftiges Rechenmodell, mit dem nichts zu tun hat Turingmaschinen durch eine polynomielle Zeitübersetzung. Gestatten, dass diese hypothetische Entdeckung eine Verschiebung des Denkens über das Vernünftige mit sich bringt, so sehe ich die formale Seite. Rückblickend scheint es trivial zu sein, aber ich denke, es ist ein wichtiger Punkt, die Mathematik von allem anderen abzugrenzen.

ECTTBPPPECTTPBPPBPPECTTPECTTPBQPECTTECTTBPPBQPP

Nehmen wir zum Beispiel an, ich habe eine Maschine gebaut, die Zahlen berücksichtigt und deren Laufzeit eine bestimmte Polynomgrenze erfüllt. Das Gerät befindet sich in einer Schachtel, Sie geben die Nummer ein, die auf ein Papierband geschrieben ist, und es druckt die Faktoren aus. Es besteht kein Zweifel, dass es funktioniert, da ich es verwendet habe, um die RSA-Herausforderungen zu gewinnen, Kryptowährung zu beschlagnahmen, große Zahlen Ihrer Wahl zu faktorisieren usw. Was ist in der Schachtel? Handelt es sich um einen erstaunlichen neuen Computertyp oder handelt es sich um einen gewöhnlichen Computer, auf dem eine erstaunliche neue Art von Software ausgeführt wird?

ECTTECTT

ECTTEXPTIMEPCTC=PSPACEECTTPPSPACE

PNPECTTPPCTCP=NPECTTECTTNP3SATP

EXPTIMEECTTEXPTIMEPECTT

ECTTP=BPPECTTPBQP

ECTT{}. Wenn es noch nicht geklärt ist, nehmen wir ein Spiel mit Beständigkeit an, indem wir es als Axiom annehmen oder indem wir die ersten beiden Aussagen zusammen annehmen, die ihre Negation implizieren. Unsere einzige Wahl, eine dieser Ideen aufzunehmen, die die Kohärenz gewährleisten soll, besteht darin, zu definieren, was vernünftig ist, und zu erklären, dass dieses bestimmte Modell vernünftig ist (was uns ohne die Definition nicht viel bedeutet arbeiten mit). Natürlich können wir beides haben und trotzdem konsequent sein, wenn wir das ändernECTT{}

ECTT

Dan Brumleve
quelle
1020