传统的RBF方法(如高斯RBF和多项式RBF)因其简单性和准确性而被广泛使用。RBF方法由Hardy在1971年提出,最初用于涉及二次曲面的拓扑应用,其中多项式(MQ)逼近方案是核心。Micchelli证明了多项式曲面插值总是可解的。1990年,Kansa首次将多项式作为全局支撑插值器应用于偏微分方程求解,即Kansa方法。然而,这种方法中的非对称插值矩阵在处理大量节点时可能导致矩阵条件数恶化。
为应对Kansa方法的挑战,人们提出了局部方法,即仅使用附近节点进行逼近。自此,局部RBF方法(如紧凑支撑结构的径向基函数CS-RBF[5,6]和径向基函数有限差分RBF-FD[7])受到更多关注,这些方法通过限制影响范围来提高计算效率和稳定性。Wong利用CS-RBF解决了浅水动力学方程组,有效解决了矩阵条件数问题,并提供了与观测数据一致的精确数值结果。Zhang利用CS-RBF开发了一种快速的多变量回归样条估计算法,显著降低了计算复杂度。Depolli提出了RBF-FD的并行域离散化算法,提高了在复杂不规则域上求解偏微分方程的无网格数值方法的计算效率。与结合有限差分方案的RBF-FD不同,CS-RBF具有局部支撑特性,因为基函数值仅在支撑半径内非零,这显著降低了计算成本并提高了矩阵稀疏性。然而,选择合适的支撑半径是CS-RBF面临的关键难题,它直接决定了模型的精度。
神经网络,特别是物理信息神经网络(PINNs[11]),在求解偏微分方程方面展现了巨大潜力,因为它们能够近似复杂函数并将物理定律直接融入学习过程,因此在包括力学建模[12,13]、材料探索[14,15]、医学研究[16,17]等多个领域受到青睐。然而,PINNs在处理具有高频特征或高精度要求的偏微分方程时仍面临挑战。为应对这些挑战,研究人员探索了多种策略,包括设计有效的物理信息损失函数、自适应权重、不同网络架构以及计算域的分解和变换[18, [19], [20], [21], [22]]。Samaniego[19]利用变分方法为PINNs训练制定了物理信息损失函数。Haghighat[21]和Yu[22]将样本点获得的梯度信息嵌入物理信息损失函数中,提升了PINNs预测梯度场的性能。其他方法,如将计算域分解为子域[23,24]和应用并行计算技术[25,26],也提高了PINNs的训练效率和精度。Bai[27]提出了物理信息径向基网络(PIRBN),它采用单隐藏层和径向基函数激活函数,优化了传统PINNs在处理非线性问题时的不足。Xiang等人[28]结合图神经网络(GNNs)和RBF-FD解决了不规则域上的时空偏微分方程。与PINNs相比,RBF-MGN能更好地处理复杂几何形状,提供更高精度的预测并提升效率。Fu[29]提出了物理信息核函数神经网络(PIKFNNs),将偏微分方程的控制方程直接集成到神经网络的激活函数中,提高了计算效率和精度。
与此同时,图神经网络(GNNs)、自适应物理信息神经网络(PINNs)和无网格方法的协同发展极大地推动了科学机器学习的前沿。这一进展体现在多个方面:在基于图的计算领域,创新包括为大规模应用构建高效、拓扑感知的系统[30],以及通过先进的消息传递范式[31], [32], [33]和超图建模技术[34,35]解决图异质性和分布外泛化等基本挑战的复杂GNN架构。同时,在无网格数值分析领域,出现了动态优化计算粒度并细化决策阈值的自适应框架[36,37],提高了鲁棒性和精度。此外,自适应调整原理在复杂生物神经网络中实现了稳健的同步[38],并通过径向基函数方法为时空偏微分方程提供了有效解决方案[39]。这些跨学科的进步共同表明了向自适应、结构感知的计算范式发展的明确趋势。
受近期研究的启发,我们构建了一种基于图的、具有紧凑支撑结构的径向基函数物理信息神经网络(G-CS-RBN)。该网络利用紧凑支撑结构的径向基函数(CS-RBF)构建单隐藏层神经网络,以改进非线性函数的描述并简化训练过程。通过网络的自我学习机制,我们提出了自适应支撑半径来选择每个点的局部支撑范围,以及自适应中心点来确定中心点的分布。图结构用于存储配置点及其对应的中心点以及生成的径向基函数。为防止局部最优解,损失函数中引入了自适应学习率以平衡不同损失项之间的梯度差异。
本文的结构如下:第2节简要介绍了径向基函数(RBF)和紧凑支撑结构径向基函数(CS-RBF)的理论基础。第3节详细讨论了G-CS-RBN的结构,包括框架、理论和损失函数。第4节展示了使用G-CS-RBN求解的2D和3D偏微分方程与传统的CS-RBF和PINNs的对比结果。第5节对G-CS-RBN进行了总结。