Als jemand, der einen BA in Physik hat, war ich etwas skandalisiert, als ich anfing, mit molekularen Simulationen zu arbeiten. Es war ein kleiner Schock zu entdecken, dass selbst die detailliertesten und rechenintensivsten Simulationen das Verhalten von Wasser nach ersten Prinzipien nicht quantitativ wiedergeben können.
Zuvor hatte ich den Eindruck, die Grundgesetze der Quantenmechanik seien ein gelöstes Problem (abgesehen von der Schwerkraft, die auf molekularer Ebene normalerweise als irrelevant angesehen wird). Es scheint jedoch, dass sobald Sie versuchen, diese Gesetze zu skalieren und sie auf etwas Größeres oder Komplexeres als ein Wasserstoffatom anzuwenden, die Vorhersagekraft zusammenbricht.
Aus mathematischer Sicht verstehe ich, dass die Wellenfunktionen schnell zu kompliziert werden, um gelöst zu werden, und dass Annäherungen (wie Born-Oppenheimer) erforderlich sind, um die Wellenfunktionen besser nachvollziehbar zu machen. Ich verstehe auch, dass diese Näherungen zu Fehlern führen, die sich mit zunehmender Zeit- und Raumskala des untersuchten Systems immer weiter ausbreiten.
Was ist die Natur der größten und bedeutendsten dieser Approximationsfehler? Wie kann ich diese Fehler intuitiv nachvollziehen? Wie können wir uns auf eine ab-initio-Methode zubewegen, mit der wir ganze Moleküle und Molekülpopulationen genau simulieren können? Was sind die größten ungelösten Probleme, die Menschen davon abhalten, solche Simulationen zu entwickeln?
Antworten:
Soweit mir bekannt ist, sind die genauesten Methoden für statische Berechnungen die vollständige Konfigurationsinteraktion mit einem vollständig relativistischen 4-Komponenten-Dirac-Hamilton-Operator und einem Basissatz, der "vollständig genug" ist. Ich bin kein Experte auf diesem speziellen Gebiet, aber nach meinem Wissen über die Methode lässt sich die Lösung mit einer Variationsmethode (anstelle einer Monte-Carlo-Methode) schockierend schlecht skalieren, da ich denke, dass Sie über die Anzahl der Slater-Determinanten verfügen um etwas wie in Ihre Matrixskalen aufzunehmen . (Es gibt einen Artikel über die Berechnungskosten hierO (no r b sCne) .) Die verwandten Monte-Carlo-Methoden und darauf basierenden Methoden, die "Walker" und Netzwerke von Determinanten verwenden, können schnellere Ergebnisse liefern, sind aber, wie oben angedeutet, keine Variationen. Und sind immer noch schrecklich teuer.
Derzeit in der Praxis nur für Energien für mehr als zwei Atome verwendete Näherungen umfassen:
In Bezug auf die Dynamik beziehen sich viele der Näherungen auf Dinge wie die begrenzte Größe eines verfolgbaren Systems und die praktische Auswahl von Zeitschritten - das ist ziemlich üblich im Bereich der numerischen Zeitsimulation. Es gibt auch eine Temperaturwartung (siehe Nose-Hoover- oder Langevin-Thermostate). Dies ist jedoch hauptsächlich eine Reihe von statistischen Problemen, wie ich es verstehe.
Wie auch immer, wenn Sie physikorientiert sind, können Sie ein ziemlich gutes Gefühl dafür bekommen, was vernachlässigt wird, wenn Sie sich die Formulierungen und Papiere zu diesen Methoden ansehen: Die am häufigsten verwendeten Methoden enthalten mindestens ein oder zwei Papiere, die nicht der ursprünglichen Spezifikation entsprechen Erklären ihrer Formulierung und was sie beinhaltet. Oder du kannst einfach mit Leuten reden, die sie benutzen. (Leute, die periodische Systeme mit DFT studieren, murmeln immer, was verschiedene Funktionalitäten tun und was nicht.) Nur sehr wenige der Methoden weisen bestimmte überraschende Auslassungen oder Fehlermodi auf. Das schwierigste Problem scheint die richtige Behandlung der Elektronenkorrelation zu sein, und alles, was über der Hartree-Fock-Methode liegt und diese überhaupt nicht erklärt, ist ein Versuch, sie einzubeziehen.
Wie ich es verstehe, wird es niemals billig sein, mit vollständigen Basissätzen auf die Genauigkeit eines vollständigen relativistischen CI zu kommen, ohne die derzeit verwendeten Algorithmen dramatisch neu zu erfinden (oder wegzuwerfen). (Und für Leute, die sagen, dass DFT die Lösung für alles ist, warte ich auf Ihre orbitalfreien Formulierungen mit reiner Dichte.)
Es gibt auch das Problem, dass es umso schwieriger ist, irgendetwas zu tun, je genauer Sie Ihre Simulation mit mehr Beiträgen und komplexeren Formulierungen durchführen. Zum Beispiel wird die Spin-Orbit-Kopplung manchmal nur deshalb vermieden, weil sie die Analyse komplizierter macht (manchmal aber auch, weil sie vernachlässigbare Auswirkungen hat), und die kanonischen Hartree-Fock- oder Kohn-Sham-Orbitale können zum Verständnis der qualitativen Merkmale von a sehr nützlich sein System ohne Schichtung auf die zusätzliche Ausgabe von fortgeschritteneren Methoden.
(Ich hoffe, dass einiges davon Sinn macht, es ist wahrscheinlich ein bisschen fleckig. Und ich habe wahrscheinlich die Lieblingsannäherung oder das Niggle von jemandem verpasst.)
quelle
Das Hauptproblem wird sein, dass Sie zusätzlich zu der höheren Rechenleistung bessere Algorithmen entwickeln müssen, die den 3.7-Exponenten auf etwas niederschlagen, das leichter zu handhaben ist.
quelle
Das Problem entspricht im Großen und Ganzen dem Unterschied zwischen klassischen Computern und Quantencomputern. Klassische Computer bearbeiten einzelne Werte gleichzeitig, da für eine deterministische Eingabe nur eine Zukunft / Historie möglich ist. Ein Quantencomputer kann jedoch an jedem möglichen Eingang gleichzeitig arbeiten, da er alle möglichen Zustände überlagern kann.
Ebenso muss ein klassischer Computer jede Eigenschaft einzeln berechnen, aber das von ihm simulierte Quantensystem verfügt über alle Gesetze des Universums, um alle Eigenschaften gleichzeitig zu berechnen.
Das Problem wird dadurch verschärft, dass wir Daten fast seriell durch eine CPU oder höchstens einige tausend CPUs übertragen müssen. Im Gegensatz dazu gibt es im Universum nahezu unbegrenzt viele simultane Berechnungen, die gleichzeitig ablaufen.
Betrachten Sie als Beispiel 3 Elektronen in einer Box. Ein Computer muss einen Zeitschritt (erste Annäherung) auswählen und die Wechselwirkungen jedes Elektrons mit jedem anderen Elektron über eine begrenzte Anzahl von CPUs neu berechnen. In der Realität haben die Elektronen eine unerklärliche Anzahl von realen und virtuellen Austauschpartikeln auf dem Weg, die als kontinuierlicher Prozess absorbiert und emittiert werden. Jedes Teilchen und jeder Punkt im Raum hat eine bestimmte Wechselwirkung, für deren Simulation ein Computer erforderlich wäre.
Simulation ist wirklich die Kunst, Ihre Näherungen und Algorithmen auszuwählen, um das Thema mit den verfügbaren Ressourcen so gut wie möglich zu modellieren. Wenn Sie Perfektion wollen, ist es leider die Mathematik von kugelförmigen Hühnern im Vakuum. wir können das sehr einfache nur perfekt simulieren.
quelle
Ich weiß nicht, ob das Folgende hilft, aber für mich war es sehr aufschlussreich, das Skalierungsverhalten von Quantensystemen zu visualisieren:
Das Hauptproblem ergibt sich aus der Tatsache, dass der Hilbert-Raum der Quantenzustände exponentiell mit der Anzahl der Teilchen wächst. Dies ist in diskreten Systemen sehr leicht zu erkennen. Stellen Sie sich ein paar potenzielle Wells vor, die miteinander verbunden sind, möglicherweise nur zwei: Well 1 und Well 2. Fügen Sie nun Bosonen hinzu (z. B. Rubidium 87, nur als Beispiel), zunächst nur eine. Wie viele mögliche Basisvektoren gibt es?
Nehmen wir nun an, der Boson kann von einem Brunnen zum anderen springen (oder tunneln). Der Hamilton-Operator, der das System beschreibt, kann dann als Matrixnotation geschrieben werden
Dieses Problem ist so einfach, dass es von Hand gelöst werden kann.
Nehmen wir nun an, wir haben mehr potenzielle Wells und mehr Bosonen, z. B. bei vier Wells mit zwei Bosonen gibt es 10 verschiedene Möglichkeiten, die Bosonen auf die Wells zu verteilen. Dann hätte der Hamilton-Operator 10x10 = 100 Elemente und 10 Eigenzustände.
quelle
Monte Carlo kann verwendet werden, um dieses Problem zu umgehen, da der Fehler wie skaliertPunkte- 12
Die Dichtefunktionaltheorie ist ein weiterer Weg, um mit diesem Problem umzugehen, aber es ist eine Annäherung. Es ist in einigen Fällen eine sehr gute Annäherung, in anderen Fällen kann es überraschend schlecht sein.
quelle
Ich denke, eine hochgenaue Simulation von Wasser war das Thema einer der allerersten und umfangreichsten Simulationen, die mit dem Jaguar-Supercomputer durchgeführt wurden . Vielleicht möchten Sie einen Blick auf dieses Papier und seine Nacharbeiten werfen (das übrigens 2009 Finalist für den Gordon-Bell- Preis war):
"Flüssiges Wasser: Aus den richtigen Gründen die richtige Antwort erhalten" , Aprà, Rendell, Harrison, Tipparaju, deJong, Xantheas.
quelle
Dieses Problem wird durch die Dichtefunktionaltheorie gelöst. Die Essenz besteht darin, viele Freiheitsgrade des Körpers durch mehrere Felder zu ersetzen, von denen eines die Elektronendichte ist. Eine großartige Ausstellung finden Sie im Nobelvortrag eines der Gründer von DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf
quelle