《Neurocomputing》:Modifications of continuous-time gradient based recurrent neural networks
编辑推荐:
本文提出了一种创新的基于梯度递归神经网络(GNN)的动态系统,称为最佳近似GNN(BGNN),用于求解病态条件下的通用线性矩阵方程(GLME)AXB=D。该模型通过引入两个误差监控矩阵(EMM)的线性组合(Ξ(t)=Ξ1(t)+αΞ2(t)),将Tikhonov正则化思想融入GNN框架,旨在获得最小范数最小二乘解(即最佳近似解)。基于Lyapunov稳定性理论的分析证明了BGNN的收敛性,数值仿真(使用MATLAB Gallery中的病态矩阵)验证了其相较于传统GNN和广义GNN(GGNN)在精度和稳定性上的优势。
主要成果
本文的主要成果总结如下。
- •
(1) 提出了一种增强的GNN设计,称为BGNN,用于求解GLME AXB=D。
- •
(2) BGNN设计基于从Tikhonov正则化推导出的最佳近似方法原理。
- •
(3) 基于Lyapunov稳定性理论,BGNN设计的收敛特性与广义Sylvester方程的精确解相关。
- •
(4) 仿真示例在选自MATLABGallery测试矩阵的子集上的病态矩阵上进行。
第2节 预备知识与研究动机
GNN动态系统的设计与非线性优化方法(1.2)之间存在严格的关系。文献[14]中提出的GNN动力学在误差监控矩阵(EMM)上演化,其定义为Ξ(t) = AV(t)B - D。在此表达式中,t ∈ [0, +∞) 表示时间,V(t) 指的是逼近矩阵方程 AXB=D 精确解 X 的未知状态变量矩阵。该矩阵方程及其特定形式的解在文献中已被深入研究。
基于最佳近似解的GNN改进
在本节中,我们定义BGNN动力学并检验其收敛性。矩阵方程 AXB=D 的最小二乘解定义为任何使残差 ‖AXB - D‖ 的Frobenius范数最小化的矩阵 X。在所有可能的最小二乘解中,唯一的极小范数解被称为最佳近似解[2], [13]。
根据(2.1),标准GNN是使用目标函数 ‖AV(t)B - D‖F2开发的。该目标导向最小二乘解的集合。
仿真示例与比较
本节通过数值仿真,将所提出的BGNN模型与GNN和GGNN模型进行验证比较。主要目的是证明BGNN在处理病态矩阵时,相较于GNN和GGNN模型,在精度、稳定性和收敛行为方面的优势。在仿真中,我们使用了多样化的基准矩阵方程集,包括经典的病态测试矩阵,例如Hilbert矩阵、Wilkinson矩阵以及来自MATLAB Gallery的其他矩阵。
结论与启始的研究方向
我们的动机是定义一种创新的基于GNN的动态流,用于在输入数据病态的情况下逼近通用线性矩阵方程 AXB=D。为此,我们改进了GNN设计以计算最佳近似解,即极小范数最小二乘解。我们开发了传统的GNN连续时间流,使其在一个适用于计算最佳近似解的改进误差函数 Ξ(t) 上演化。我们将这种改进称为最佳近似GNN(BGNN)动力学。