Wo brechen die Gesetze der Quantenmechanik in Simulationen zusammen?


29

Als jemand, der einen BA in Physik hat, war ich etwas skandalisiert, als ich anfing, mit molekularen Simulationen zu arbeiten. Es war ein kleiner Schock zu entdecken, dass selbst die detailliertesten und rechenintensivsten Simulationen das Verhalten von Wasser nach ersten Prinzipien nicht quantitativ wiedergeben können.

Zuvor hatte ich den Eindruck, die Grundgesetze der Quantenmechanik seien ein gelöstes Problem (abgesehen von der Schwerkraft, die auf molekularer Ebene normalerweise als irrelevant angesehen wird). Es scheint jedoch, dass sobald Sie versuchen, diese Gesetze zu skalieren und sie auf etwas Größeres oder Komplexeres als ein Wasserstoffatom anzuwenden, die Vorhersagekraft zusammenbricht.

Aus mathematischer Sicht verstehe ich, dass die Wellenfunktionen schnell zu kompliziert werden, um gelöst zu werden, und dass Annäherungen (wie Born-Oppenheimer) erforderlich sind, um die Wellenfunktionen besser nachvollziehbar zu machen. Ich verstehe auch, dass diese Näherungen zu Fehlern führen, die sich mit zunehmender Zeit- und Raumskala des untersuchten Systems immer weiter ausbreiten.

Was ist die Natur der größten und bedeutendsten dieser Approximationsfehler? Wie kann ich diese Fehler intuitiv nachvollziehen? Wie können wir uns auf eine ab-initio-Methode zubewegen, mit der wir ganze Moleküle und Molekülpopulationen genau simulieren können? Was sind die größten ungelösten Probleme, die Menschen davon abhalten, solche Simulationen zu entwickeln?


6
Ähm ... was hat Sie alle dazu gebracht zu glauben, dass "die Grundgesetze der Quantenmechanik ein gelöstes Problem sind" gleichbedeutend mit der Fähigkeit, "das gesamte Verhalten von Wasser ausgehend von den ersten Prinzipien [in der Simulation] zu reproduzieren" ? Es ist ein dreizehn Körperproblem.
dmckee

@dmckee seht, das ist genau das, worüber ich verwirrt bin. 13 Körperproblem bedeutet natürlich keine analytische Lösung, aber was hindert uns daran, eine numerische Lösung mit willkürlicher Genauigkeit zu finden? Ist es einfach so, dass Sie an die Wand stoßen, was rechnerisch machbar ist? Sind Sie bereits an dem Punkt angelangt, an dem für eine Berechnung die Lebensdauer einer Sonne erforderlich ist? Wenn ja, welche Art von Annäherungen können Sie zur Vereinfachung des Problems vornehmen? Können Sie diese Annäherungen auf einer intuitiven Ebene verstehen? Gibt es Möglichkeiten, die Annäherungen zu verbessern und die von ihnen verursachte Fehlerquote zu verringern?
Tel.

@dmckee was mich dazu gebracht hat zu denken, dass Wasser in erster Linie einfach sein sollte ... Ich beschuldige die Proteinsimulatoren. Sie ließen mich träumen, was möglich war :)
Tel.

Antworten:


16

Soweit mir bekannt ist, sind die genauesten Methoden für statische Berechnungen die vollständige Konfigurationsinteraktion mit einem vollständig relativistischen 4-Komponenten-Dirac-Hamilton-Operator und einem Basissatz, der "vollständig genug" ist. Ich bin kein Experte auf diesem speziellen Gebiet, aber nach meinem Wissen über die Methode lässt sich die Lösung mit einer Variationsmethode (anstelle einer Monte-Carlo-Methode) schockierend schlecht skalieren, da ich denke, dass Sie über die Anzahl der Slater-Determinanten verfügen um etwas wie in Ihre Matrixskalen aufzunehmen . (Es gibt einen Artikel über die Berechnungskosten hierO(norbsCne).) Die verwandten Monte-Carlo-Methoden und darauf basierenden Methoden, die "Walker" und Netzwerke von Determinanten verwenden, können schnellere Ergebnisse liefern, sind aber, wie oben angedeutet, keine Variationen. Und sind immer noch schrecklich teuer.

Derzeit in der Praxis nur für Energien für mehr als zwei Atome verwendete Näherungen umfassen:

  • Der geborene Oppenheimer, wie Sie sagen: Dies ist fast nie ein Problem, es sei denn, Ihr System beinhaltet das Tunneln von Wasserstoffatomen oder Sie befinden sich ganz in der Nähe einer Staatskreuzung bzw. einer vermiedenen Kreuzung. (Siehe zum Beispiel konische Überschneidungen.) Konzeptionell gibt es nicht-adiabatische Methoden für die Wellenfunktion / Dichte, einschließlich CPMD, und es gibt auch Path-Integral MD, die Kerntunneleffekte erklären können.
  • Nichtrelativistische Berechnungen und Zweikomponenten-Näherungen an die Dirac-Gleichung: Sie können eine genaue Zweikomponenten-Formulierung der Dirac-Gleichung erhalten, praktischer jedoch die Zeroth-Order Regular Approximation (siehe Lenthe et al., JChemPhys, 1993) oder die Douglas-Gleichung. Kroll-Hess Hamiltonian (siehe Reiher, ComputMolSci, 2012) werden häufig verwendet und vernachlässigen häufig (wahrscheinlich normalerweise) die Spin-Bahn-Kopplung.
  • Basissätze und LCAO: Basissätze sind nicht perfekt, aber Sie können sie jederzeit vervollständigen.
  • DFT-Funktionen, die versuchen, einen hinreichend guten Versuch zum Austausch und zur Korrelation zu liefern, ohne den Rechenaufwand der weiter unten beschriebenen Methoden. (Und die kommen in ein paar verschiedenen Näherungsstufen. LDA ist die Einstiegsstufe, GGA, MetaGGA und einschließlich des genauen Austauschs gehen darüber hinaus, und einschließlich der RPA ist immer noch eine ziemlich teure und neue Technik für mich Es gibt auch Funktionale, die unterschiedliche Techniken als Funktion der Trennung verwenden, und einige, die Vorticity verwenden, von denen ich denke, dass sie in magnetischen oder Aromatizitätsstudien Anwendung finden.) (B3LYP, die Funktion, die manche Menschen lieben und manche Menschen hassen, ist ein GGA einschließlich eines Prozentsatzes des exakten Austauschs.)
  • Konfigurationsinteraktionskürzungen: CIS, CISD, CISDT, CISD (T), CASSCF, RASSCF usw. Dies sind alles Näherungen an CI, bei denen angenommen wird, dass die wichtigsten angeregten Determinanten die am wenigsten angeregten sind.
  • Konfigurationsinteraktion mit mehreren Referenzen (Kürzungen): Das Gleiche gilt, jedoch mit einigen unterschiedlichen Referenzstartzuständen.
  • Coupled-Cluster-Methode: Ich gebe nicht vor, richtig zu verstehen, wie dies funktioniert, erhalte jedoch ähnliche Ergebnisse wie Verkürzungen der Konfigurationsinteraktion mit dem Vorteil der Größenkonsistenz (dh (bei großer Trennung)).E(H2)×2=E((H2)2

In Bezug auf die Dynamik beziehen sich viele der Näherungen auf Dinge wie die begrenzte Größe eines verfolgbaren Systems und die praktische Auswahl von Zeitschritten - das ist ziemlich üblich im Bereich der numerischen Zeitsimulation. Es gibt auch eine Temperaturwartung (siehe Nose-Hoover- oder Langevin-Thermostate). Dies ist jedoch hauptsächlich eine Reihe von statistischen Problemen, wie ich es verstehe.

Wie auch immer, wenn Sie physikorientiert sind, können Sie ein ziemlich gutes Gefühl dafür bekommen, was vernachlässigt wird, wenn Sie sich die Formulierungen und Papiere zu diesen Methoden ansehen: Die am häufigsten verwendeten Methoden enthalten mindestens ein oder zwei Papiere, die nicht der ursprünglichen Spezifikation entsprechen Erklären ihrer Formulierung und was sie beinhaltet. Oder du kannst einfach mit Leuten reden, die sie benutzen. (Leute, die periodische Systeme mit DFT studieren, murmeln immer, was verschiedene Funktionalitäten tun und was nicht.) Nur sehr wenige der Methoden weisen bestimmte überraschende Auslassungen oder Fehlermodi auf. Das schwierigste Problem scheint die richtige Behandlung der Elektronenkorrelation zu sein, und alles, was über der Hartree-Fock-Methode liegt und diese überhaupt nicht erklärt, ist ein Versuch, sie einzubeziehen.

Wie ich es verstehe, wird es niemals billig sein, mit vollständigen Basissätzen auf die Genauigkeit eines vollständigen relativistischen CI zu kommen, ohne die derzeit verwendeten Algorithmen dramatisch neu zu erfinden (oder wegzuwerfen). (Und für Leute, die sagen, dass DFT die Lösung für alles ist, warte ich auf Ihre orbitalfreien Formulierungen mit reiner Dichte.)

Es gibt auch das Problem, dass es umso schwieriger ist, irgendetwas zu tun, je genauer Sie Ihre Simulation mit mehr Beiträgen und komplexeren Formulierungen durchführen. Zum Beispiel wird die Spin-Orbit-Kopplung manchmal nur deshalb vermieden, weil sie die Analyse komplizierter macht (manchmal aber auch, weil sie vernachlässigbare Auswirkungen hat), und die kanonischen Hartree-Fock- oder Kohn-Sham-Orbitale können zum Verständnis der qualitativen Merkmale von a sehr nützlich sein System ohne Schichtung auf die zusätzliche Ausgabe von fortgeschritteneren Methoden.

(Ich hoffe, dass einiges davon Sinn macht, es ist wahrscheinlich ein bisschen fleckig. Und ich habe wahrscheinlich die Lieblingsannäherung oder das Niggle von jemandem verpasst.)


11

O(Ne3.7)NeNe=104N=39

Das Hauptproblem wird sein, dass Sie zusätzlich zu der höheren Rechenleistung bessere Algorithmen entwickeln müssen, die den 3.7-Exponenten auf etwas niederschlagen, das leichter zu handhaben ist.


6
O(Ne3.7)

1
Ich mag und genieße diese Diskussion wirklich!
Öffnen Sie den Weg

Nach meinem Verständnis wäre die Quantenmechanik (oder zumindest die Theorie der elektronischen Struktur) ein gelöstes Problem, wenn die genauesten Methoden mit O (N ^ 3) skaliert würden. Das Problem ist, dass es im Wesentlichen nur die schlechtesten Methoden sind, mittlere Feldnäherungen, die sich dieser Skalierung annähern, und so etwas wie Full CI exponentiell mit der Anzahl der Elektronen (oder typischer den Basisfunktionen) skaliert.
Tyberius

6

Das Problem entspricht im Großen und Ganzen dem Unterschied zwischen klassischen Computern und Quantencomputern. Klassische Computer bearbeiten einzelne Werte gleichzeitig, da für eine deterministische Eingabe nur eine Zukunft / Historie möglich ist. Ein Quantencomputer kann jedoch an jedem möglichen Eingang gleichzeitig arbeiten, da er alle möglichen Zustände überlagern kann.

Ebenso muss ein klassischer Computer jede Eigenschaft einzeln berechnen, aber das von ihm simulierte Quantensystem verfügt über alle Gesetze des Universums, um alle Eigenschaften gleichzeitig zu berechnen.

Das Problem wird dadurch verschärft, dass wir Daten fast seriell durch eine CPU oder höchstens einige tausend CPUs übertragen müssen. Im Gegensatz dazu gibt es im Universum nahezu unbegrenzt viele simultane Berechnungen, die gleichzeitig ablaufen.

Betrachten Sie als Beispiel 3 Elektronen in einer Box. Ein Computer muss einen Zeitschritt (erste Annäherung) auswählen und die Wechselwirkungen jedes Elektrons mit jedem anderen Elektron über eine begrenzte Anzahl von CPUs neu berechnen. In der Realität haben die Elektronen eine unerklärliche Anzahl von realen und virtuellen Austauschpartikeln auf dem Weg, die als kontinuierlicher Prozess absorbiert und emittiert werden. Jedes Teilchen und jeder Punkt im Raum hat eine bestimmte Wechselwirkung, für deren Simulation ein Computer erforderlich wäre.

Simulation ist wirklich die Kunst, Ihre Näherungen und Algorithmen auszuwählen, um das Thema mit den verfügbaren Ressourcen so gut wie möglich zu modellieren. Wenn Sie Perfektion wollen, ist es leider die Mathematik von kugelförmigen Hühnern im Vakuum. wir können das sehr einfache nur perfekt simulieren.


3
wirklich schön "Simulation ist wirklich die Kunst, Ihre Annäherungen und Algorithmen zu wählen, um das Thema so gut wie möglich mit den verfügbaren Ressourcen zu modellieren"
Öffnen Sie den Weg

Es ist wahr, dass sich nur kugelförmige Hühnerfetischisten für Perfektion interessieren. Die eigentliche Frage ist, was uns davon abhält, "gut genug" zu werden. Für viele Probleme von biologischem Interesse (dh jedes Arzneimittelbindungsproblem, das jemals aufgetreten ist) wäre es ausreichend, die Energien auf etwa ~ 1 kT genau zu berechnen. Dies wird manchmal als "chemische Genauigkeit" bezeichnet.
Tel.

1
@tel: Kommt auf die Gegend an. Für einige Dinge haben wir eine größere Genauigkeit in Modellen, als wir in der Praxis erreichen können, z. B. die Modellierung von Wasserstoff-Elektronen-Orbitalen. Bei anderen, normalerweise vielteiligen, nichtlinearen Systemen, bei denen mehrere Effekte zum Tragen kommen, bemühen wir uns, dem Experiment zu entsprechen. Quantenchemie für Dinge wie Bindungsenergien (siehe Density Functional Theory), Proteinfaltung - dies sind Orte, an denen wir Experimente mit allgemein verfügbaren Ressourcen noch nicht zuverlässig reproduzieren können. Quantencomputer mit einer vernünftigen Größe würden die Arbeit erledigen.
Phil H

4

Ich weiß nicht, ob das Folgende hilft, aber für mich war es sehr aufschlussreich, das Skalierungsverhalten von Quantensystemen zu visualisieren:

Das Hauptproblem ergibt sich aus der Tatsache, dass der Hilbert-Raum der Quantenzustände exponentiell mit der Anzahl der Teilchen wächst. Dies ist in diskreten Systemen sehr leicht zu erkennen. Stellen Sie sich ein paar potenzielle Wells vor, die miteinander verbunden sind, möglicherweise nur zwei: Well 1 und Well 2. Fügen Sie nun Bosonen hinzu (z. B. Rubidium 87, nur als Beispiel), zunächst nur eine. Wie viele mögliche Basisvektoren gibt es?

  • Basisvektor 1: Boson in Well 1
  • Basisvektor 2: Boson in Vertiefung 2

|1,0|0,1

Nehmen wir nun an, der Boson kann von einem Brunnen zum anderen springen (oder tunneln). Der Hamilton-Operator, der das System beschreibt, kann dann als Matrixnotation geschrieben werden

H^=(ϵ1ttϵ2)

ϵ1,2|1,0|0,1

Dieses Problem ist so einfach, dass es von Hand gelöst werden kann.

Nehmen wir nun an, wir haben mehr potenzielle Wells und mehr Bosonen, z. B. bei vier Wells mit zwei Bosonen gibt es 10 verschiedene Möglichkeiten, die Bosonen auf die Wells zu verteilen. Dann hätte der Hamilton-Operator 10x10 = 100 Elemente und 10 Eigenzustände.

Anzahl der Eigenzustände=(Anzahl der Brunnen+Anzahl der Bosonen-1Anzahl der Bosonen)

92,3782

2.7105310107 Elemente, die so viel Platz einnehmen, dass wir alle Partikel aus 10 Millionen Universen wie unseren benötigen würden, nur um diese Informationen zu kodieren.


2

n3n

Monte Carlo kann verwendet werden, um dieses Problem zu umgehen, da der Fehler wie skaliertPunkte-12

Die Dichtefunktionaltheorie ist ein weiterer Weg, um mit diesem Problem umzugehen, aber es ist eine Annäherung. Es ist in einigen Fällen eine sehr gute Annäherung, in anderen Fällen kann es überraschend schlecht sein.



-1

Dieses Problem wird durch die Dichtefunktionaltheorie gelöst. Die Essenz besteht darin, viele Freiheitsgrade des Körpers durch mehrere Felder zu ersetzen, von denen eines die Elektronendichte ist. Eine großartige Ausstellung finden Sie im Nobelvortrag eines der Gründer von DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf


Könnten Sie dem Link, den Sie bereitstellen, einen Kontext geben? Wir raten von Antworten ab, die nur einen Link ohne jegliche Erklärung enthalten. Antworten dieser Art werden gelöscht, sofern sie nicht bearbeitet werden.
Geoff Oxberry

10
und nebenbei sollte man wirklich aufpassen mit "Dieses Problem ist gelöst durch ....". Da gibt es Grenzen für DFT, die jemand erwähnen sollte
Öffnen Sie den Weg

3
DFT liefert eine sehr nützliche Annäherung, 'löst' aber nichts! Es ist nicht exakt ohne exakte Funktionalitäten für den Austausch und die Korrelation und liefert auch dann nicht die Wellenfunktionen, sondern die Elektronendichte.
Phil H

Viele Körper QM nicht als Theorie zusammenbrechen, es ist nur NP schwer. DFT ist eine Theorie mit polynomieller Komplexität, die die elektronische Struktur aller chemischen Elemente mit der gleichen Genauigkeit wie bei den Grundprinzipien QM löst. Deshalb wurde es mit dem Nobelpreis für Chemie ausgezeichnet. Es hat im Vergleich zu Experimenten hervorragende Ergebnisse für große Systeme geliefert.
Artan

2
Sie liegen falsch. DFT löst "das Problem" nicht mit der gleichen Genauigkeit. Es "löst" einen bestimmten Fall (Grundzustand) durch Einführung einer völlig unbekannten Austauschkorrelationsfunktion.
Mischa
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.