Наскільки мені відомо, найбільш точними методами статичних обчислень є взаємодія повної конфігурації з повністю релятивістським чотирикомпонентним Діраком Гамільтоніаном та "достатньо повною" базою. Я не фахівець у цій конкретній області, але, наскільки я знаю про метод, розв’язування його за допомогою варіаційного методу (а не методу, заснованого на Монте-Карло) масштабує вражаюче погано, оскільки я думаю, що кількість визначників Слейтера у вас є включити до вашої матричної шкали щось на зразок O (нo r b sСне) . (Там стаття про розрахункової вартості тут.) Споріднені методи Монте-Карло та методи, засновані на них, використовуючи "ходунки" та мережі визначників, можуть дати результати швидше, але, як випливало з цього вище, не є варіативними. І все ще є надзвичайно дорогими.
Наближення, які в даний час практично використовуються лише для енергій більше двох атомів, включають:
- Як ви говорите, народжений Оппенгеймер: це майже ніколи не є проблемою, якщо ваша система не передбачає тунелювання атомів водню, або якщо ви перебуваєте поруч із перетином штату / уникаєте перетину. (Див., Наприклад, конічні перехрестя.) Концептуально існують неадіабатичні методи хвильової функції / густини, включаючи CPMD, а також існує МД Path-Integral, який може враховувати ефекти ядерного тунелювання.
- Нерелятивістські обчислення та двокомпонентні наближення рівняння Дірака: ви можете отримати точну двокомпонентну формулювання рівняння Дірака, але більш практично регулярне наближення Зерота порядку (див. Lenthe et al, JChemPhys, 1993) або Дуглас- Гамільтоніан Кролл-Гесса (див. Reiher, ComputMolSci, 2012) зазвичай використовується, і часто (можливо, зазвичай) нехтуючи спіно-орбітним зчепленням.
- Набори основ та LCAO: базові набори не є ідеальними, але ви завжди можете зробити їх більш повними.
- Функціонали DFT, які, як правило, намагаються забезпечити достатньо хорошу спробу обміну та кореляції без обчислювальної вартості більш досконалих методів нижче. (І які наближаються до кількох різних рівнів наближення. LDA - це початковий рівень, GGA, metaGGA і включаючи точний обмін, йде далі, ніж це, і в тому числі RPA все ще є досить дорогою і новою технологією, наскільки я Я знаю. Є також функціонали, які використовують різні методи як функцію розділення, і деякі, які використовують вихровість, яку, на мою думку, мають застосування в дослідженнях магнітних чи ароматичних речовин.) (B3LYP, функціонал, який деякі люблять, а деякі люблять ненавидіти, є GGA, включаючи відсоток точного обміну.)
- Усечення взаємодії конфігурації: CIS, CISD, CISDT, CISD (T), CASSCF, RASSCF тощо. Це все наближення до ІС, які передбачають, що найбільш важливі збуджені детермінанти є найменш збудженими.
- Взаємодія конфігурації з кількома посиланнями (усічення): Ditto, але з кількома різними стартовими еталонними станами.
- Е( Н2) × 2 = E( ( Н2)2
Для динаміки багато наближень відносяться до таких речей, як обмежений розмір простежуваної системи, і практичний вибір часового кроку - це досить стандартні речі в області моделювання чисельного часу. Також є підтримка температури (див. Термостати Nose-Hoover або Langevin). Це здебільшого набір проблем статистичної механіки, хоча, як я це розумію.
У будь-якому випадку, якщо ви є фізично налаштованими, ви можете отримати гарне відчуття того, що нехтуєте, переглянувши формулювання та статті про ці методи: найчастіше використовувані методи матимуть щонайменше одну-дві статті, які не є оригінальними специфікаціями пояснення їх формулювання та що воно включає. Або ви можете просто поговорити з людьми, які ними користуються. (Люди, які вивчають періодичні системи за допомогою DFT, завжди балакають про те, що роблять різні функціонали, а не включають і не враховують.) Дуже мало методів мають специфічні дивні упущення або режими відмов. Найбільш складною проблемою видається правильне лікування кореляції електронів, і все, що вище методу Хартрі-Фока, який взагалі не враховує цього, - це спроба включити його.
Як я розумію, досягти точності Повного релятивістського інтерфейсу з повними наборами бази ніколи не буде дешевим без різкого вигадування (або викидання) алгоритмів, які ми використовуємо в даний час. (А для людей, які говорять, що DFT - це рішення всього, я чекаю вашої чистої формули без щільності на орбіті.)
Існує також питання, що чим точніше ви зробите своє моделювання, включивши більше внесків і складніші формулювання, тим складніше насправді щось зробити. Наприклад, спінітну орбіту іноді уникають лише тому, що це робить все складніше для аналізу (але іноді також тому, що він має незначний ефект), а канонічні орбіталі Хартрі-Фока або Кон-Шама можуть бути досить корисними для розуміння якісних особливостей система без шарів на додатковий вихід більш досконалих методів.
(Я сподіваюся, що щось із цього має сенс, це, мабуть, трохи плямисто. І я, мабуть, пропустив чиєсь улюблене наближення чи нігті.)