Où les lois de la mécanique quantique se décomposent-elles dans les simulations?


29

En tant que titulaire d'un BA en physique, j'ai été quelque peu scandalisé lorsque j'ai commencé à travailler avec des simulations moléculaires. Ce fut un peu un choc de découvrir que même les simulations les plus détaillées et les plus coûteuses en calcul ne peuvent pas reproduire quantitativement le comportement complet de l'eau à partir des premiers principes.

Auparavant, j'avais eu l'impression que les lois de base de la mécanique quantique étaient un problème résolu (à part la gravité, qui est généralement supposée non pertinente à l'échelle moléculaire). Cependant, il semble qu'une fois que vous essayez d'intensifier ces lois et de les appliquer à quelque chose de plus grand ou de plus complexe qu'un atome d'hydrogène, leur pouvoir prédictif commence à se dégrader.

D'un point de vue mathématique, je comprends que les fonctions d'onde deviennent rapidement trop compliquées à résoudre et que des approximations (telles que Born-Oppenheimer) sont nécessaires pour rendre les fonctions d'onde plus maniables. Je comprends également que ces approximations introduisent des erreurs qui se propagent de plus en plus à mesure que les échelles de temps et d'espace du système étudié augmentent.

Quelle est la nature de la plus grande et de la plus importante de ces erreurs d'approximation? Comment acquérir une compréhension intuitive de ces erreurs? Plus important encore, comment pouvons-nous évoluer vers une méthode ab-initio qui nous permettra de simuler avec précision des molécules entières et des populations de molécules? Quels sont les plus gros problèmes non résolus qui empêchent les gens de développer ce type de simulations?


6
Euh ... qu'est-ce qui vous a fait penser que "les lois de base de la mécanique quantique étaient un problème résolu" équivalait à pouvoir "reproduire le comportement complet de l'eau à partir des premiers principes [en simulation]" ? C'est un problème corporel de treize ans.
dmckee

@dmckee voyez, c'est exactement ce qui me dérange. 13 problème de corps signifie pas de solution analytique, bien sûr, mais qu'est-ce qui nous empêche de trouver une solution numérique d'une précision arbitraire? Est-ce simplement que vous frappez le mur de ce qui est faisable sur le plan informatique? Êtes-vous déjà au point où un calcul nécessite la durée de vie d'un soleil pour se terminer? Si oui, quels types d'approximations pouvez-vous faire pour simplifier le problème? Pouvez-vous comprendre ces approximations à un niveau intuitif? Existe-t-il des moyens d'améliorer les approximations, de réduire le niveau d'erreur qu'elles introduisent? Décomposer pour moi
tél

@dmckee quant à ce qui m'a fait penser que l'eau devrait être simple en premier lieu ... Je blâme les simulateurs de protéines. Ils m'ont fait rêver de ce qui était possible :)
tel

Réponses:


16

Pour autant que je sache, les méthodes les plus précises pour les calculs statiques sont l'interaction de configuration complète avec un Hamiltonien Dirac à quatre composants entièrement relativiste et un ensemble de base "assez complet". Je ne suis pas un expert dans ce domaine particulier, mais d'après ce que je sais de la méthode, la résoudre en utilisant une méthode variationnelle (plutôt qu'une méthode basée sur Monte-Carlo) est terriblement mauvaise, car je pense que le nombre de déterminants Slater que vous avez d'inclure dans votre échelle matricielle quelque chose comme . (Il y a un article sur le coût de calcul iciO(norbsCne).) Les méthodes Monte-Carlo associées et les méthodes basées sur celles-ci en utilisant des «marcheurs» et des réseaux de déterminants peuvent donner des résultats plus rapidement, mais comme implicite ci-dessus, elles ne sont pas variationnelles. Et sont toujours horriblement coûteux.

Les approximations actuellement utilisées dans la pratique uniquement pour les énergies de plus de deux atomes comprennent:

  • Né Oppenheimer, comme vous le dites: ce n'est presque jamais un problème à moins que votre système n'implique une tunnelisation des atomes d'hydrogène, ou à moins que vous ne soyez très près d'un état traversant / évité de traverser. (Voir, par exemple, les intersections coniques.) Conceptuellement, il existe des méthodes non adiabatiques pour la fonction / densité d'onde, y compris CPMD, et il y a aussi Path-Integral MD qui peut tenir compte des effets de tunnel nucléaire.
  • Calculs non relativistes et approximations à deux composantes de l'équation de Dirac: vous pouvez obtenir une formulation exacte à deux composantes de l'équation de Dirac, mais plus pratiquement l'approximation régulière de l'ordre de Zeroth (voir Lenthe et al, JChemPhys, 1993) ou le Douglas- L'hamiltonien de Kroll-Hess (voir Reiher, ComputMolSci, 2012) est couramment utilisé et néglige souvent (probablement généralement) le couplage spin-orbite.
  • Ensembles de base et LCAO: les ensembles de base ne sont pas parfaits, mais vous pouvez toujours les rendre plus complets.
  • Fonctionnelles DFT, qui tendent à fournir une tentative d'échange et de corrélation suffisamment bonne sans le coût de calcul des méthodes plus avancées ci-dessous. (Et qui se présentent sous différents niveaux d'approximation. LDA est celui d'entrée de gamme, GGA, metaGGA et y compris l'échange exact vont plus loin que cela, et y compris le RPA est toujours une technique assez coûteuse et nouvelle pour autant que je Il y a aussi des fonctionnels qui utilisent des techniques différentes en fonction de la séparation, et certains qui utilisent le tourbillon qui, je pense, ont une application dans les études magnétiques ou d'aromaticité.) est un GGA incluant un pourcentage d'échange exact.)
  • Troncatures d'interaction de configuration: CIS, CISD, CISDT, CISD (T), CASSCF, RASSCF, etc. Ce sont toutes des approximations de CI qui supposent que les déterminants excités les plus importants sont les moins excités.
  • Interaction de configuration multi-références (troncatures): Idem, mais avec quelques états de référence de départ différents.
  • E(H2)×2=E((H2)2

Pour la dynamique, de nombreuses approximations se réfèrent à des choses comme la taille limitée d'un système maniable et le choix pratique des pas de temps - c'est assez standard dans le domaine de la simulation numérique du temps. Il y a aussi le maintien de la température (voir les thermostats Nose-Hoover ou Langevin). Il s'agit surtout d'un ensemble de problèmes de mécanique statistique, si je comprends bien.

Quoi qu'il en soit, si vous êtes axé sur la physique, vous pouvez avoir une assez bonne idée de ce qui est négligé en regardant les formulations et les articles sur ces méthodes: les méthodes les plus couramment utilisées auront au moins un ou deux articles qui ne sont pas les spécifications d'origine expliquer leur formulation et ce qu'elle comprend. Ou vous pouvez simplement parler aux personnes qui les utilisent. (Les personnes qui étudient les systèmes périodiques avec DFT marmonnent toujours sur ce que les différentes fonctions font et n'incluent pas et ne rendent pas compte.) Très peu de méthodes ont des omissions ou des modes de défaillance surprenants spécifiques. Le problème le plus difficile semble être un traitement approprié de la corrélation d'électrons, et tout ce qui dépasse la méthode Hartree-Fock, qui ne l'explique pas du tout, est une tentative de l'inclure.

Si je comprends bien, obtenir la précision du CI relativiste complet avec des ensembles de base complets ne sera jamais bon marché sans réinventer (ou jeter) de manière spectaculaire les algorithmes que nous utilisons actuellement. (Et pour les gens qui disent que la DFT est la solution à tout, j'attends vos formulations sans orbite de densité pure.)

Il y a aussi le problème que plus vous effectuez votre simulation avec précision en incluant plus de contributions et de formulations plus complexes, plus il est difficile de faire quoi que ce soit avec. Par exemple, le couplage orbite-spin est parfois évité uniquement parce qu'il rend tout plus compliqué à analyser (mais parfois aussi parce qu'il a un effet négligeable), et les orbitales canoniques Hartree-Fock ou Kohn-Sham peuvent être très utiles pour comprendre les caractéristiques qualitatives d'un système sans superposition sur la sortie supplémentaire de méthodes plus avancées.

(J'espère que cela a du sens, c'est probablement un peu inégal. Et j'ai probablement raté l'approximation ou le niggle préféré de quelqu'un.)


11

O(Ne3.7)NeNe=104N=39

Le problème principal sera que, en plus de l'augmentation de la puissance de calcul, vous devrez trouver de meilleurs algorithmes qui peuvent faire tomber l'exposant 3.7 vers quelque chose de plus gérable.


6
O(Ne3.7)

1
J'aime et apprécie vraiment cette discussion!
Ouvrez la voie le

Ma compréhension est que la mécanique quantique (ou au moins la théorie de la structure électronique) serait considérée comme un problème résolu si les méthodes les plus précises étaient mises à l'échelle comme O (N ^ 3). Le problème est que ce ne sont essentiellement que les pires méthodes, approximations de champ moyen, qui approchent cette mise à l'échelle, et quelque chose comme Full CI évolue de manière exponentielle avec le nombre d'électrons (ou plus généralement les fonctions de base).
Tyberius

6

Le problème est globalement équivalent à la différence entre les ordinateurs classiques et les ordinateurs quantiques. Les ordinateurs classiques fonctionnent sur des valeurs uniques à la fois, car un seul futur / historique est possible pour une entrée déterministe. Cependant, un ordinateur quantique peut fonctionner simultanément sur toutes les entrées possibles, car il peut être mis en superposition de tous les états possibles.

De la même manière, un ordinateur classique doit calculer chaque propriété individuellement, mais le système quantique qu'il simule a toutes les lois de l'univers pour calculer toutes les propriétés simultanément.

Le problème est exacerbé par la façon dont nous devons transmettre les données presque en série via un processeur, ou tout au plus quelques milliers de processeurs. En revanche, l'univers dispose d'un ensemble presque illimité de calculs simultanés en cours en même temps.

Prenons comme exemple 3 électrons dans une boîte. Un ordinateur doit choisir un pas de temps (première approximation) et continuer à recalculer les interactions de chaque électron avec chaque autre électron, via un nombre limité de CPU. En réalité, les électrons ont un nombre inconnu de particules d'échange réelles et virtuelles en transit, absorbées et émises, comme un processus continu. Chaque particule et point dans l'espace a une interaction en cours, qui aurait besoin d'un ordinateur pour simuler.

La simulation est vraiment l'art de choisir vos approximations et vos algorithmes pour modéliser au mieux le sujet avec les ressources dont vous disposez. Si vous voulez la perfection, j'ai bien peur que ce soit les mathématiques des poulets sphériques sous vide; nous ne pouvons que simuler parfaitement le très simple.


3
vraiment sympa "La simulation est vraiment l'art de choisir vos approximations et vos algorithmes pour modéliser au mieux le sujet avec les ressources dont vous disposez"
Ouvrez la voie le

Il est vrai que seuls les fétichistes de poulet sphériques se soucient de la perfection. La vraie question est: qu'est-ce qui nous empêche de devenir "assez bien"? Pour de nombreux problèmes d'intérêt biologique (c'est-à-dire tous les problèmes de liaison de médicaments jamais), une précision suffisante serait de calculer les énergies à environ 1 kT environ. Ceci est parfois appelé «précision chimique».
tel

1
@tel: dépend de la région. Pour certaines choses, nous avons plus de précision dans les modèles que ce que nous pouvons atteindre dans la pratique, par exemple la modélisation des orbitales électroniques à hydrogène. Pour d'autres, généralement des systèmes non linéaires à plusieurs corps où de multiples effets entrent en jeu, nous avons du mal à faire correspondre l'expérience; la chimie quantique pour des choses comme les énergies de liaison (voir Théorie fonctionnelle de la densité), le repliement des protéines, ce sont des endroits où nous ne pouvons pas encore reproduire de manière fiable l'expérience avec des ressources couramment disponibles. Des ordinateurs quantiques d'une taille raisonnable feraient l'affaire.
Phil H

4

Je ne sais pas si ce qui suit aide, mais pour moi, c'était très perspicace de visualiser le comportement de mise à l'échelle des systèmes quantiques:

Le principal problème vient du fait que l'espace Hilbert des états quantiques croît de façon exponentielle avec le nombre de particules. Cela peut être vu très facilement dans les systèmes discrets. Pensez à quelques puits potentiels qui sont connectés l'un à l'autre, peut-être deux: puits 1 et puits 2. Ajoutez maintenant des bosons (par exemple, Rubidium 87, juste comme exemple), au début un seul. Combien de vecteurs de base possibles existe-t-il?

  • vecteur de base 1: boson dans le puits 1
  • vecteur de base 2: boson dans le puits 2

|1,0|0,1

Supposons maintenant que le boson puisse sauter (ou tunnel) d'un puits à l'autre. L'hamiltonien qui décrit le système peut alors être écrit comme une notation matricielle comme

H^=(ϵ1ttϵ2)

ϵ1,2|1,0|0,1

Ce problème est si simple qu'il peut être résolu à la main.

Supposons maintenant que nous ayons plus de puits potentiels et plus de bosons, par exemple, dans le cas de quatre puits avec deux bosons, il existe 10 possibilités différentes de répartir les bosons entre les puits. Le hamiltonien aurait alors 10x10 = 100 éléments et 10 états propres.

number of eigenstates=(number of wells+number of bosons1number of bosons)

92,3782

2.7105310107 éléments, occupant tellement d'espace que nous aurions besoin de toutes les particules de 10 millions d'univers comme le nôtre juste pour encoder ces informations.


2

n3n

points12

La théorie fonctionnelle de la densité est une autre façon de résoudre ce problème, mais c'est une approximation. C'est une très bonne approximation dans certains cas, mais dans d'autres cas, cela peut être étonnamment mauvais.



-1

Ce problème est résolu par la théorie de la densité fonctionnelle. L'essence est de remplacer de nombreux degrés de liberté du corps par plusieurs champs dont l'un est la densité des électrons. Pour une grande exposition, voir la conférence Nobel de l'un des fondateurs de DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf


Pourriez-vous donner un peu de contexte au lien que vous fournissez? Nous déconseillons les réponses qui ne donnent qu'un lien sans aucune sorte d'explication, et ces sortes de réponses sont supprimées à moins qu'elles ne soient modifiées.
Geoff Oxberry

10
et en passant, vous devriez vraiment faire attention avec "Ce problème est résolu par ....". Puisqu'il y a des limites pour DFT que quelqu'un devrait mentionner
Ouvrez la voie le

3
La DFT fournit une approximation très utile, mais ne «résout» rien! Il n'est pas exact sans fonctionnelles exactes pour l'échange et la corrélation, et même alors ne donne pas les fonctions d'onde mais la densité électronique.
Phil H

Beaucoup de corps QM ne se décomposent pas en théorie, c'est juste NP difficile. La DFT est une théorie à complexité polynomiale qui résout avec la même précision que les principes de base QM la structure électronique de tous les éléments chimiques. C'est pourquoi il a remporté le prix Nobel de chimie. Il a fourni d'excellents résultats pour les grands systèmes par rapport aux expériences.
Artan

2
Vous avez tort. DFT ne résout pas «le problème» avec la même précision. Il «résout» un cas particulier (état fondamental) en introduisant une fonction de corrélation d'échange complètement inconnue.
Misha
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.