НЕЙРОЕВОЛЮЦІЙНИЙ МЕТОД КОЛОКАЦІЇ РОЗВ’ЯЗАННЯ ДИФЕРЕНЦІАЛЬНИХ РІВНЯНЬ

А. О. Ярош, О. В. Кудін
{"title":"НЕЙРОЕВОЛЮЦІЙНИЙ МЕТОД КОЛОКАЦІЇ РОЗВ’ЯЗАННЯ ДИФЕРЕНЦІАЛЬНИХ РІВНЯНЬ","authors":"А. О. Ярош, О. В. Кудін","doi":"10.32782/tnv-tech.2023.6.9","DOIUrl":null,"url":null,"abstract":"Важливість розвитку наближених методів розв'язання диференціальних рівнянь визначається їхнім широким застосуванням у важливих галузях науки та техніки. Факт того, що багато фізичних та інженерних явищ можна математично описати диференціальними рівняннями, але часто важко знайти їхні аналітичні розв'язки, робить чисельні методи наближеного розв'язання критично важливими. Ці методи необхідні для комп’ютерного моделювання та симуляції складних технічних систем. Враховуючи широкий спектр різновидів диференціальних рівнянь, наближені методи стають універсальним інструментом, адаптованим для вирішення складних задач у різних галузях, та дозволяють краще враховувати вимоги сучасних обчислювальних технологій. Застосування нейронних мереж для наближеного розв'язання диференціальних рівнянь представляє собою перспективний напрямок в галузі наукового моделювання. Нейронні мережі з додаванням фізичної інформації у вигляді складної функції втрат є інноваційним підходом, що об'єднує традиційні методи розв'язання фізичних задач із сучасними техніками глибокого навчання. У цьому підході, нейронна мережа, яка зазвичай використовується для апроксимації функцій, отримує на вхід не лише вхідні дані, але й фізичну інформацію про систему чи процес, яку вона моделює. Ця фізична інформація може бути включена у вигляді додаткових параметрів, обмежень чи рівнянь. Складна функція втрат враховує якість апроксимації нейронною мережею, а також фізичні принципи задачі. Це дозволяє нейронним мережам адаптуватися до фізичних обмежень і забезпечує наближене розв'язання задач, враховуючи важливі аспекти фізичної структури. В роботі досліджується можливість застосування генетичних алгоритмів для налаштування гіперпараметрів нейронних мереж, що апроксимують невідому функцію.","PeriodicalId":242216,"journal":{"name":"Таврійський науковий вісник. Серія: Технічні науки","volume":"207 2","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2024-03-13","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Таврійський науковий вісник. Серія: Технічні науки","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.32782/tnv-tech.2023.6.9","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Важливість розвитку наближених методів розв'язання диференціальних рівнянь визначається їхнім широким застосуванням у важливих галузях науки та техніки. Факт того, що багато фізичних та інженерних явищ можна математично описати диференціальними рівняннями, але часто важко знайти їхні аналітичні розв'язки, робить чисельні методи наближеного розв'язання критично важливими. Ці методи необхідні для комп’ютерного моделювання та симуляції складних технічних систем. Враховуючи широкий спектр різновидів диференціальних рівнянь, наближені методи стають універсальним інструментом, адаптованим для вирішення складних задач у різних галузях, та дозволяють краще враховувати вимоги сучасних обчислювальних технологій. Застосування нейронних мереж для наближеного розв'язання диференціальних рівнянь представляє собою перспективний напрямок в галузі наукового моделювання. Нейронні мережі з додаванням фізичної інформації у вигляді складної функції втрат є інноваційним підходом, що об'єднує традиційні методи розв'язання фізичних задач із сучасними техніками глибокого навчання. У цьому підході, нейронна мережа, яка зазвичай використовується для апроксимації функцій, отримує на вхід не лише вхідні дані, але й фізичну інформацію про систему чи процес, яку вона моделює. Ця фізична інформація може бути включена у вигляді додаткових параметрів, обмежень чи рівнянь. Складна функція втрат враховує якість апроксимації нейронною мережею, а також фізичні принципи задачі. Це дозволяє нейронним мережам адаптуватися до фізичних обмежень і забезпечує наближене розв'язання задач, враховуючи важливі аспекти фізичної структури. В роботі досліджується можливість застосування генетичних алгоритмів для налаштування гіперпараметрів нейронних мереж, що апроксимують невідому функцію.
用于求解微分方程的神经进化搭配法
微分方程近似解法在重要科技领域的广泛应用决定了其发展的重要性。许多物理和工程现象都可以用微分方程进行数学描述,但通常很难找到它们的解析解,这一事实使得近似求解的数值方法变得极为重要。这些方法对于复杂技术系统的计算机建模和仿真至关重要。鉴于微分方程的广泛性,近似方法正成为一种通用工具,适用于解决各个领域的复杂问题,并能更好地考虑现代计算技术的要求。在科学建模领域,利用神经网络近似求解微分方程是一个前景广阔的领域。以复杂损失函数形式添加物理信息的神经网络是一种创新方法,它将解决物理问题的传统方法与现代深度学习技术相结合。在这种方法中,通常用于近似函数的神经网络不仅会接收输入数据,还会接收所建模系统或过程的物理信息。这些物理信息可以附加参数、约束条件或方程的形式纳入。复杂损失函数考虑了神经网络近似的质量以及问题的物理原理。这使得神经网络能够适应物理约束,并在考虑到物理结构重要方面的情况下,为问题提供近似解决方案。本文研究了使用遗传算法调整神经网络近似未知函数的超参数的可能性。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信