基于改进连续时间梯度递归神经网络的双误差监控矩阵动态系统及其在病态矩阵方程中的应用

《Neurocomputing》:Modifications of continuous-time gradient based recurrent neural networks

【字体: 时间:2026年01月06日 来源:Neurocomputing 6.5

编辑推荐:

  本文提出了一种创新的基于梯度递归神经网络(GNN)的动态系统,称为最佳近似GNN(BGNN),用于求解病态条件下的通用线性矩阵方程(GLME)AXB=D。该模型通过引入两个误差监控矩阵(EMM)的线性组合(Ξ(t)=Ξ1(t)+αΞ2(t)),将Tikhonov正则化思想融入GNN框架,旨在获得最小范数最小二乘解(即最佳近似解)。基于Lyapunov稳定性理论的分析证明了BGNN的收敛性,数值仿真(使用MATLAB Gallery中的病态矩阵)验证了其相较于传统GNN和广义GNN(GGNN)在精度和稳定性上的优势。

  
主要成果
本文的主要成果总结如下。
  • (1) 提出了一种增强的GNN设计,称为BGNN,用于求解GLME AXB=D。
  • (2) BGNN设计基于从Tikhonov正则化推导出的最佳近似方法原理。
  • (3) 基于Lyapunov稳定性理论,BGNN设计的收敛特性与广义Sylvester方程的精确解相关。
  • (4) 仿真示例在选自MATLABGallery测试矩阵的子集上的病态矩阵上进行。
第2节 预备知识与研究动机
GNN动态系统的设计与非线性优化方法(1.2)之间存在严格的关系。文献[14]中提出的GNN动力学在误差监控矩阵(EMM)上演化,其定义为Ξ(t) = AV(t)B - D。在此表达式中,t ∈ [0, +∞) 表示时间,V(t) 指的是逼近矩阵方程 AXB=D 精确解 X 的未知状态变量矩阵。该矩阵方程及其特定形式的解在文献中已被深入研究。
基于最佳近似解的GNN改进
在本节中,我们定义BGNN动力学并检验其收敛性。矩阵方程 AXB=D 的最小二乘解定义为任何使残差 ‖AXB - D‖ 的Frobenius范数最小化的矩阵 X。在所有可能的最小二乘解中,唯一的极小范数解被称为最佳近似解[2], [13]。
根据(2.1),标准GNN是使用目标函数 ‖AV(t)B - D‖F2开发的。该目标导向最小二乘解的集合。
仿真示例与比较
本节通过数值仿真,将所提出的BGNN模型与GNN和GGNN模型进行验证比较。主要目的是证明BGNN在处理病态矩阵时,相较于GNN和GGNN模型,在精度、稳定性和收敛行为方面的优势。在仿真中,我们使用了多样化的基准矩阵方程集,包括经典的病态测试矩阵,例如Hilbert矩阵、Wilkinson矩阵以及来自MATLAB Gallery的其他矩阵。
结论与启始的研究方向
我们的动机是定义一种创新的基于GNN的动态流,用于在输入数据病态的情况下逼近通用线性矩阵方程 AXB=D。为此,我们改进了GNN设计以计算最佳近似解,即极小范数最小二乘解。我们开发了传统的GNN连续时间流,使其在一个适用于计算最佳近似解的改进误差函数 Ξ(t) 上演化。我们将这种改进称为最佳近似GNN(BGNN)动力学。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号