APW-PINN:基于自适应分段加权损失策略增强PINN求解偏微分方程的鲁棒性与精度

《Communications in Nonlinear Science and Numerical Simulation》:An adaptive piecewise-weighted loss strategy for improving physics-informed neural networks in solving PDEs

【字体: 时间:2026年03月02日 来源:Communications in Nonlinear Science and Numerical Simulation 3.8

编辑推荐:

  本文提出一种基于概率建模的自适应分段加权物理信息神经网络(APW-PINN),旨在解决传统物理信息神经网络(PINN)在多约束训练中面临的梯度失衡、收敛不稳及对噪声敏感等问题。该策略通过Smooth L1损失统一高斯与拉普拉斯分布的负对数似然,构建了一个可随训练学习噪声尺度参数的自适应损失函数。理论分析表明,该方法可在不同误差尺度下提供自适应且有界的梯度权重,有效平衡多损失项间的梯度,并抑制由高频结构或噪声扰动引起的优化振荡。数值实验在多种典型偏微分方程(PDE)(包括Boussinesq方程、Helmholtz方程和Klein-Gordon方程)上验证了其在收敛效率、求解精度和噪声鲁棒性上的显著优势。

  
Probabilistic formulation of PINN loss function (物理信息神经网络损失函数的概率化表述)
在物理信息神经网络中,损失函数衡量了神经网络预测与物理可行解之间的接近程度。不同的损失度量,例如L2(均方误差)或L1(平均绝对误差),基于不同的假设并对优化过程产生不同影响。本文的核心是将PINN的优化过程视为对一个概率分布的学习过程。通过这种方式,损失函数的设计可以与残差的概率模型联系起来。这种概率视角不仅为不同损失项间的梯度失衡提供了理论解释,也为开发基于概率建模的自适应加权策略奠定了基础。例如,高斯(Gaussian)分布和拉普拉斯(Laplace)分布分别对应于均方误差和平均绝对误差,这揭示了损失函数类型与噪声模式之间的内在一致性。
Proposed method (提出的方法)
我们在传统PINN的基础上,引入一种自适应分段加权机制,并将其命名为APW-PINN。与现有PINN变体不同,APW-PINN采用了一种分段自适应损失函数,能够在训练过程中适应不同的残差模式。对于每个索引为k的损失分量(例如偏微分方程残差或初边值条件),在每次迭代时的残差向量被定义为 εk(j)。该框架的核心是,将Smooth L1损失(SL1)的结构与高斯分布和拉普拉斯分布的负对数似然相结合,从而构建一个统一的损失函数。这使得模型能够通过一个可学习的噪声尺度参数σ,在不同残差水平下平滑地在二次惩罚和线性惩罚机制之间切换。这种设计使得APW-PINN能够动态估计残差的统计特性,并自适应地分配损失权重,从而有效缓解了多项约束之间的梯度竞争,提升了训练的稳定性和对噪声的鲁棒性。
Numerical experiments (数值实验)
本章通过数值实验比较了APW-PINN与传统PINN方法在求解正向和逆向偏微分方程问题上的表现。我们在三个典型方程的正向问题上系统评估了方法的性能,包括Boussinesq方程、Helmholtz方程和非线性Klein-Gordon方程。此外,还研究了针对Boussinesq方程的逆问题参数辨识任务。为了评估模型的鲁棒性,我们在训练数据集中添加了高斯噪声,生成带噪声的样本unoisy。实验结果表明,得益于其可解释的概率分段加权机制,APW-PINN在多种复杂物理问题的求解中,在收敛稳定性、求解精度以及对噪声的鲁棒性方面均显著优于传统PINN及其单一分布变体(PINN-G和PINN-L)。即使在高达10%的噪声水平下,APW-PINN在Boussinesq方程的参数辨识任务中仍能将参数误差保持在1%以内,进一步证实了其出色的鲁棒性和泛化能力。
相关新闻
生物通微信公众号
微信
新浪微博

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号