Meine Frage betrifft Quantenalgorithmen für QED-Berechnungen (Quantenelektrodynamik) in Bezug auf die Feinstrukturkonstanten. Solche Berechnungen (wie mir erklärt) Taylor-ähnliche Reihen wobei die Feinstrukturkonstante (um 1/137) ist und der Beitrag von Feynman-Diagrammen mit Schleifen ist. α c k k
Diese Frage wurde durch Peter Shors Kommentar (über QED und die Feinstrukturkonstante) in einer Diskussion über Quantencomputer in meinem Blog motiviert . Für einige Hintergrundinformationen gibt es hier einen relevanten Wikipedea-Artikel .
Es ist bekannt, dass a) die ersten Terme dieser Berechnung sehr genaue Schätzungen für die Beziehungen zwischen experimentellen Ergebnissen liefern, die mit ausgezeichneter Übereinstimmung mit Experimenten übereinstimmen. b) Die Berechnungen sind sehr schwer und das Berechnen von mehr Begriffen liegt außerhalb unserer Rechenleistung. c) An einigen Stellen explodiert die Berechnung - mit anderen Worten, der Konvergenzradius dieser Potenzreihe ist Null.
Meine Frage ist sehr einfach: Können diese Berechnungen auf einem Quantencomputer effizient durchgeführt werden?
Frage 1
1): Können wir berechnen wirklich effizient (oder gut angenäherten) mit einem Quantencomputer der Koeffizienten .
2) (schwächer) Ist es zumindest möglich, die durch die QED-Berechnung im Regime gegebenen Schätzungen zu berechnen, bevor diese Koeffizienten explodieren?
3) (noch schwächer) Ist es zumindest möglich, die Schätzungen dieser QED-Berechnung zu berechnen, solange sie relevant sind? (Nämlich für die Begriffe in der Reihe, die der Physik eine gute Annäherung geben.)
Eine ähnliche Frage gilt für QCD-Berechnungen zur Berechnung der Eigenschaften des Protons oder Neutrons. (Aram Harrow hat in meinem Blog einen entsprechenden Kommentar zu QCD-Berechnungen abgegeben, und die Kommentare von Alexander Vlasov sind ebenfalls relevant.) Ich würde mich freuen, auch die Situation für QCD-Berechnungen zu erfahren.
Nach Peter Shors Kommentar:
Frage 2
Kann die Quantenberechnung die Antwort genauer geben, als dies klassisch möglich ist, weil die Koeffizienten explodieren?
Mit anderen Worten
Werden Quantencomputer es ermöglichen, die Situation zu modellieren und zu geben
effiziente Annäherung an die tatsächlichen physikalischen Größen.
Eine andere Möglichkeit , es zu fragen :
Können wir mit Quantencomputern immer mehr Ziffern der Feinstrukturkonstante berechnen, genauso wie wir mit einem digitalen Computer immer mehr Ziffern von e und berechnen können ?
(Ohh, ich wünschte ich wäre ein Gläubiger :))
mehr Hintergrund
Die Hoffnung, dass Berechnungen in der Quantenfeldtheorie mit Quantencomputern effizient durchgeführt werden können, war (vielleicht) eine von Feynmans Motivation für die Qualitätskontrolle. In diesem Artikel wurden wichtige Fortschritte in Richtung Quantenalgorithmen für Berechnungen in Quantenfeldtheorien erzielt: Stephen Jordan, Keith Lee und John Preskill Quantenalgorithmen für Quantenfeldtheorien . Ich weiß nicht, ob die Arbeit von Jordan, Lee und Preskill (oder eine nachfolgende Arbeit) eine positive Antwort auf meine Frage impliziert (zumindest in ihren schwächeren Formen).
Eine verwandte Frage auf der physikalischen Seite
Ich bin auch neugierig, ob es Schätzungen gibt, wie viele Begriffe in der Erweiterung enthalten sind, bevor wir Zeuge einer Explosion werden. (Um es formeller zu formulieren: Gibt es Schätzungen für das Minimum k, für das (sagen wir).) Und wie ist die Qualität der Annäherung, die wir erwarten können, wenn wir Verwenden Sie diese Begriffe. Mit anderen Worten, wie viel bessere Ergebnisse können wir von diesen QED-Berechnungen mit unbegrenzter Rechenleistung erwarten.
Hier sind zwei verwandte Fragen auf der Website der Physikschwester. QED und QCD mit unbegrenzter Rechenleistung - wie genau werden sie sein? ;; Die Feinstrukturkonstante - kann es sich wirklich um eine Zufallsvariable handeln?
quelle
Antworten:
Der allgemeine Glaube scheint zu sein, dass die Erweiterung in eine asymptotische Reihe ist, aber keine konvergente Reihe. Die Handwellenschätzung ist, dass in die Skalierung für die Koeffizienten ungefähr. Seit die Begriffe für größer als etwa 137 eher größer als kleiner. (Ich gehe davon aus, dass es zu diesem Thema ernsthafte Literatur gibt, aber ich bin damit nicht allzu vertraut haben mir Hochenergiephysiker in ungezwungenen Gesprächen erzählt.)∑ k c k α k c k ∼ k ! & agr; & asymp; 1 / 137 kα ∑kckαk ck∼k! α≃1/137 k
Die Feinstrukturkonstante selbst ist keine rein theoretische Formel. Das Erhalten von mehr Ziffern von ist also ein grundlegend anderes Problem als das Erhalten von mehr Ziffern von . Davon abgesehen sind die Herausforderungen sowohl experimentell als auch rechnerisch. Verschiedene Experimente in Teilchenbeschleunigern und Laboratorien für Atomphysik befassen sich mit zunehmend genaueren Messungen von Grundkonstanten wie . Oft ist die hochpräzise theoretische Berechnung der Faktoren, die die experimentell beobachteten Größen (wie Streuwahrscheinlichkeiten oder Spektrallinien) mit interessierenden Grundkonstanten wieπ α αα π α α ist sehr schwierig und rechenintensiv. Die rechnerische Seite kann bei diesen Präzisionsmessproblemen ebenso ein begrenzender Faktor sein wie die experimentelle Seite. (Einige meiner Mitarbeiter bei NIST sind auf solche Dinge spezialisiert.)
In dem von Keith, John und mir entwickelten Quantenalgorithmus verwenden wir keine störende Erweiterung der Potenzen der Kopplungskonstante. Der Simulationsalgorithmus ist viel direkter analog zu einem tatsächlichen Experiment. Ein Vorteil gegenüber dem Experiment besteht jedoch darin, dass wir in einer Simulation frei sind, auf einen beliebigen Wert zu ändern . Durch Berechnen von Streuamplituden bei variierendem könnte es daher einfacher sein, die einzelnen Koeffizienten zu bestimmenα c kα α ck als es in der realen Welt ist. Die Untersuchung von Quantenalgorithmen zur Simulation von Quantenfeldtheorien steckt jedoch noch in den Kinderschuhen. Die Extraktion solcher Koeffizienten ist eine der zahlreichen interessanten Fragen, die noch nicht wirklich untersucht wurden! Außerdem befassen sich unsere Algorithmen noch nicht mit QED, sondern mit einigen vereinfachten Modellen.
Heute haben wir hauptsächlich zwei klassische Algorithmen für QFT: Feynman-Diagramme und Gittersimulationen. Feynman-Diagramme brechen bei starker Kopplung oder hoher Präzision zusammen, wie oben erläutert. Gitterberechnungen eignen sich meist nur zur Berechnung statischer Größen wie Bindungsenergien (z. B. der Masse des Protons) und nicht dynamischer Größen wie Streuamplituden. Dies liegt daran, dass die Gitterberechnungen eine imaginäre Zeit verwenden. (Auch für bestimmte Systeme der kondensierten Materie, die sehr frustriert sind, ist es exponentiell schwierig, statische Größen wie Grundzustandsenergien zu finden. Es ist mir nicht klar, inwieweit dieses Phänomen für die Hochenergiephysik relevant ist.) Es gibt auch einen Strom Forschungsprogramm zur Beschleunigung der Berechnung von Streuamplituden in supersymmetrischen Quantenfeldtheorien. Sie haben vielleicht von dem "gehört
Es gibt also Raum für eine exponentielle Beschleunigung durch Quantenberechnung, wenn Sie dynamische Größen wie Streuamplituden mit hoher Präzision oder in einer stark gekoppelten Quantenfeldtheorie berechnen möchten. Meine Arbeiten mit Keith und John erarbeiten Quantenalgorithmen zur Polynomzeit zur Berechnung von Streuamplituden in einfachen Quantenfeldtheorien, die stark gekoppelt werden können. Wir möchten unsere Algorithmen erweitern, um vollständigere Modelle wie QED und QCD zu simulieren, sind aber noch nicht da. Dies ist mit nicht trivialen Herausforderungen verbunden, aber ich bin der Meinung, dass Quantencomputer in der Lage sein sollten, Streuamplituden in Quantenfeldtheorien in der Polynomzeit ganz allgemein zu berechnen.
Das ist also die Perspektive, die auf bekannten klassischen und Quantenalgorithmen basiert. Es gibt auch eine Perspektive aus der Komplexitätstheorie. Für viele Klassen physikalischer Systeme ist das Problem der Berechnung von Übergangsamplituden mit Polynomgenauigkeit BQP-vollständig und das Problem der Berechnung von Bodenenergien QMA-vollständig. Für den schlimmsten Fall erwarten wir, dass Quantencomputer Übergangsamplituden in Polynomzeit berechnen, während klassische Computer Exponentialzeit benötigen. Wir erwarten, dass sowohl Quanten- als auch klassische Computer (sowie die Natur selbst) exponentielle Zeit benötigen, um im schlimmsten Fall Grundzustände zu finden. Die Frage ist, ob die schlimmsten Fälle der Rechenprobleme wie eine echte Physik aussehen. Im Kontext der Physik der kondensierten Materie lautet die Antwort im Grunde ja, würde ich sagen. Im Kontext der Hochenergiephysik Man kann BQP-harte Instanzen des Streuamplitudenproblems konstruieren, die zumindest lose etwas entsprechen, das ein Physiker möglicherweise berechnen muss. (Wir arbeiten derzeit an einem Artikel darüber.) Ob man QMA-harte Instanzen des Problems der Berechnung eines Vakuumzustands für eine Quantenfeldtheorie konstruieren kann, ist etwas, über das ich nicht wirklich nachgedacht habe. Ich denke jedoch, dass dies getan werden könnte, wenn man bereit ist, nicht translatorisch invariante externe Felder zuzulassen.
quelle