Передумови:
Я створив лише одне робоче числове рішення для 2d Navier-Stokes. Це було рішення для потоку порожнини, керованого кришкою. Курс, однак, обговорював ряд схем просторових дискрецій та часових дискрецій. Я також взяв більше курсових робіт з маніпуляції символами, застосованих до NS.
Деякі числові підходи для перетворення аналітичного / символічного рівняння з PDE в кінцеву різницю включають:
- Euler FTFS, FTCS, BTCS
- Ослаблений
- Середній стрибок
- Лакс-Вендроф
- MacCormack
- зміщення сітки (просторова дифузія дозволяє поширювати інформацію)
- ТВД
Мені на той час це здавалося як "вставка-ім'я знаходить схему, і це трапляється". Багато з них були з часів "рясного кремнію". Вони всі наближення. У межі вони. теоретично приводять до PDE.
У той час як пряме числове моделювання ( DNS ) є цікавим, а Reynolds Averaged Navier-Stokes ( RANS ) також є цікавим, вони є двома "кінцевими точками" континууму між обчислювально простежуваними та повною мірою представляють явища. Існує кілька сімей підходів, які живуть інтер'єром до них.
У мене на лекції викладачі CFD говорили, що більшість вирішальників CFD роблять гарні зображення, але здебільшого ці фотографії не представляють реальності, і це може бути дуже важко, і потрібно багато роботи, щоб отримати рішення, що вирішує дійсно представляє реальність.
Послідовність розвитку (наскільки я розумію, не вичерпна) така:
- Почніть з керуючих рівнянь -> PDE
- визначте свою просторову та часову дискретизацію -> сітка та правила FD
- застосовуються до домену, включаючи початкові умови та граничні умови
- вирішити (безліч варіацій інверсії матриці)
виконувати грубі перевірки реальності, відповідність відомим рішенням тощо.
побудувати кілька простіших фізичних моделей, отриманих на основі аналітичних результатів
- перевірити їх, проаналізувати та оцінити
- ітерація (стрибок назад на будь-який крок 6, 3 або 2)
Думки:
Останнім часом я працюю з моделями CART, косими деревами, випадковими лісами та деревами, що підсилюють градієнт. Вони слідують більш математично виведеним правилам, а математика керує формою дерева. Вони працюють над тим, щоб добре скласти дискретні форми.
Хоча ці числові підходи, створені людиною, працюють дещо, існує велика «вуду», необхідна для підключення їх результатів до фізичних явищ, які вони призначені для моделювання. Часто моделювання істотно не замінює реальне тестування та перевірку. Використовувати неправильний параметр легко або не враховувати зміни в геометрії чи параметрах застосувань у реальному світі.
Запитання:
- Чи існував якийсь підхід, щоб дозволити природі проблеми визначити
відповідну схему дискретизації, просторову та часову диференціацію, початкові умови чи рішення? - Чи може рішення високої чіткості в поєднанні з технікою машинного навчання використовувати схему розрізнення, яка має значно більші розміри кроків, але зберігає конвергенцію, точність тощо?
- Усі ці схеми є доступними "по-людськи витягнутими" - у них є кілька елементів. Чи існує схема розрізнення з тисячами елементів, яка робить кращу роботу? Як воно виводиться?
Примітка. Я буду проаналізувати емпірично інтіалізований та емпірично отриманий (на відміну від аналітичного) окремий питання.
ОНОВЛЕННЯ:
Використання глибокого навчання для прискорення гратчастих потоків Больцмана. Дав ~ 9x прискорення для їх конкретного випадку
Генні, О. (у пресі). Lat-Net: Моделювання потоку стисненої решітки Больцмана за допомогою глибоких нейронних мереж. Отримано з: https://arxiv.org/pdf/1705.09036.pdf
Репо з кодом (я думаю):
https://github.com/loliverhennigh/Phy-NetПриблизно на 2 порядки швидше, ніж GPU, на 4 порядки або ~ O (10000x) швидше, ніж процесор, і таке ж обладнання.
Гоо, X., Лі, Ш. та Іоїро, Ф. Конволюційні нейронні мережі для наближення постійного потоку. Отримано з: https://autodeskresearch.com/publications/convolutional-neural-networks-steady-flow-approximation
Інші, хто розглядав цю тему приблизно 20 років тому:
Мюллер, С., Мілано, М. та Кумуцакос П. Застосування алгоритмів машинного навчання для моделювання та оптимізації потоків. Щорічний науковий опис Центру досліджень турбулентності 1999 Отримано з: https://web.stanford.edu/group/ctr/ResBriefs99/petros.pdf
Оновлення (2017):
це характеризує використання неградієнтних методів у глибокому навчанні, арена, що базується виключно на градієнті. Незважаючи на те, що безпосереднє значення діяльності полягає в глибокому навчанні, це також дозволяє припустити, що GA може бути використаний як рівнозначний при вирішенні дуже важкої, дуже глибокої, дуже складної проблеми на рівні, що відповідає методам, що ґрунтуються на градієнті або перевершує їх.
В рамках цього питання може бути припущено, що більш масштабний, на основі машинного навчання напад може дати можливість «шаблонам» у часі та просторі, що істотно прискорить конвергенцію методів градієнт-домену. У статті йдеться про те, що іноді йдучи у напрямку спуску градієнта відходить від рішення. Хоча при будь-яких проблемах з локальними оптимами або патологічними траєкторіями (більшість найважливіших проблем у реальному світі є деякі з них) очікується, що градієнт не є глобально інформативним, все ж приємно його кількісно оцінити та перевірити емпірично, як це було у цій роботі та вміння «стрибати на межі», не вимагаючи «скорочення навчання», коли ви отримуєте імпульс чи недостатню релаксацію.
Оновлення (2019 р.):
Схоже, Google тепер має внесок "як знайти кращий вирішувач" фрагмент головоломки AI. посилання Це частина, що робить AI зробити вирішувачем.
** Оновлення (2020): ** А тепер вони роблять це, і це роблять добре ...
https://arxiv.org/pdf/1911.08655.pdf
Можна стверджувати, що вони могли потім деконструювати свою мережу NN, щоб визначити фактичну дискретизацію. Особливо мені подобається фігура 4.