其他分享
首页 > 其他分享> > 基本模型一: PINNs : Physics Informed Neural Networks

基本模型一: PINNs : Physics Informed Neural Networks

作者:互联网

最开始当然要提到很经典的文章 —— Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations 。 这篇文章是布朗大学的助理教授 Maziar Raissi 和学术大牛GE Karniadakis 一起写的, 文章分为两部分, 第一部分写的是 Data-driven solutions of nonlinear partial differential equations, 就是在讲怎么解 PDEs(Partial Differential Equations), 第二部分写的是 Data-driven discovery of nonlinear partial differential equations, 就是在讲怎样解PDE的反问题 (带参数的PDE,参数需要在解的过程中求解出来)。 由于其基本想法很接近, 我们只谈第一部分, 简略的讲第二部分。下面便进入正题。 

监督学习是机器学习中的一个大类, 很多分类问题,回归问题都可以用它来解决。 那么, 从求解PDE的角度来看, 监督学习能发挥什么样的作用呢? 

如何逼近一个函数(算子)一直以来便是数学中的难题。 数学家们发展了很多工具来逼近函数, 如插值理论,框架, 谱方法 , 有限元等。 从逼近论的角度来看, 神经网络(Neural Networks)便可以看做一个非线性函数逼近器。 我们期望输出一个数据, 通过神经网络输出的值可以反应出输入数据的好坏, 有效性等, 从而有助于我们理解问题。 假设我们限制神经网络输出的值是一维的, 那么对于 binary classfication 来说, 我们可以把大于 0 的分为一类, 小于 0 的分为另一类。但是对于一个PDE来说, 我们如何来判断输入数据的好坏呢? 

给定一个非线性PDE 

u_t+\mathcal{N}[u;\lambda]=0, 

其中 u(x,t) 是要求的解, \mathcal{N}[u;\lambda ] 是非线性偏微分算子, \lambda 是需要待定的参数。 为简单起见, 我们假设\mathcal{N}[u;\lambda]=\mathcal{N}(u)。 用一个具体的例子(Burgers方程)来说明主要的想法和步骤

定义 f 为 f= u_t+uu_x-(0.01/\pi)u_{xx},  利用 Neural Networks 来逼近 u(x,t)。 定义损失函数为

 

其中

 

waitingwinter 发布了8 篇原创文章 · 获赞 0 · 访问量 476 私信 关注

标签:differential,partial,逼近,Neural,Informed,nonlinear,PINNs,PDE,Networks
来源: https://blog.csdn.net/waitingwinter/article/details/103979339