基于惩罚神经网络的加速级联合漂移消除方案,用于解决冗余机器人操作器的约束运动规划问题

《Neural Networks》:A Punishment Neural Network-based Acceleration-Level Joint Drift-Free Scheme for Solving Constrained Motion Planning Problem of Redundant Robotic Manipulators

【字体: 时间:2026年02月06日 来源:Neural Networks 6.3

编辑推荐:

  针对冗余机器人重复运动中的关节漂移问题,提出基于惩罚神经网络的加速度级关节无漂移方案(PNN-ALJDF),通过设计时间变化的关节加速度约束替代传统固定值约束,结合动力学方程和漂移无约束条件构建全局优化框架,并利用改进的惩罚神经网络求解,仿真验证其有效性及精度优势。

  
张志军|高西同|郭金佳
华南理工大学,中国广东省广州市

摘要

为了解决冗余机器人操作臂的重复运动问题,本文设计了一种基于惩罚神经网络的加速度级关节无漂移(PNN-ALJDF)方案。传统的关节物理限制约束是固定的且缺乏灵活性。因此,在PNN-ALJDF方案中考虑了一种新颖的关节加速度时变约束,以防止关节状态超出物理限制。此外,为了确保冗余机器人操作臂能够定期返回初始姿态,还设计了一种关节无漂移准则。进一步地,通过时变二次规划方法,将关节无漂移准则、运动学方程和关节加速度时变约束全局性地构建为加速度级关节无漂移(ALJDF)方案。然后,利用设计的惩罚神经网络求解ALJDF方案。因此,所提出的PNN-ALJDF方案由ALJDF方案和惩罚神经网络组成。最后,仿真结果表明,PNN-ALJDF方案能够有效防止关节漂移,并且所有关节状态均满足加速度时变约束。

引言

近年来,冗余机器人操作臂得到了广泛研究。由于冗余机器人操作臂具有多个自由度,它们在完成复杂任务时更加灵活。此外,它们在执行主要任务的同时还可以处理一些子任务(Xu等人,2022年)。因此,冗余机器人操作臂被应用于许多领域,如农业生产(Xu和Li,2022年)、医疗治疗(Lau等人,2016年)以及工业制造(Doan和Lin,2017年)。
在冗余机器人操作臂的研究中,运动规划问题一直存在,其核心在于逆运动学问题(Singh和Sukavanam,2012年)。由于逆运动学问题是非线性的,因此很难根据末端执行器的状态来确定关节角度。传统的解决方法是一种伪逆方法(Zhang等人,2016年),该方法侧重于计算冗余机器人操作臂的雅可比矩阵的伪逆来确定关节角度。然而,在解决由子任务表示的不等式问题时,伪逆方法存在局限性(Zhang和Zhang,2013年)。二次规划(QP)方法消除了伪逆方法的局限性,因为它不需要计算矩阵的逆。此外,它可以将优化准则表示为方程和不等式约束,例如重复运动问题(Sun等人,2025年)和关节限制(Zhang Yunong,2012年)。因此,QP方法可以充分利用冗余机器人的灵活性,其解决方案可以通过各种神经网络获得(Xiao等人,2019年;Zhang、Chen、Li、Zhang,2018a;Zhang、Gong、Yang、Li、Yang,2019年)。Zhang等人利用QP方法构建了重复运动问题,然后通过提出的基于LVI的原始-对偶神经网络(LVI-PDNN)(Zhang等人,2008b)获得了解决方案。由于末端执行器的状态是时变的,并且通常由QP方法表示,因此重新构建的QP问题被视为时变二次规划(TVQP)问题。Li等人将运动学模型构建为TVQP问题,然后通过CMAC神经网络求解(Li和Leong,2001年)。Jin等人考虑了TVQP问题中的分布式控制,并通过零化神经网络解决了冗余机器人操作臂的合作问题(Jin等人,2018年)。Chen等人将混合多目标规划方案构建为TVQP问题,并通过LVI-PDNN求解(Chen和Zhang,2017年)。Xia等人提出了一种具有RNN网络结构的LVI-PDNN,可以解决具有多个约束的QP问题(Wang,2000年)。
在执行任务时,必须考虑关节的物理限制约束(Tan等人,2022年)。如果忽略这些约束,冗余机器人操作臂在执行方案时可能会超出预设的物理限制,从而导致任务失败甚至损坏自身。传统的约束通常是固定值的有界约束,这些约束仅在关节角度和关节角速度层面进行考虑(Lee等人,2008年)。与上述研究不同,本文设计了一种加速度级的关节时变约束。关节约束的上限是时变的,从而使操作臂更加灵活和安全。
在冗余机器人操作臂的运动过程中,可能会出现重复运动问题,即关节漂移现象(Zhang等人,2013年)。为了确保闭合路径,冗余机器人操作臂的姿态在完成每个周期性任务后需要与初始姿态相同。如果发生关节漂移,则需要在每个周期重新调整操作臂的状态,从而降低工作效率(Zhang等人,2009年)。Zhang等人从理论上分析了关节漂移的原因,并提出了相应的补救方案(Zhang等人,2011年)。Chen等人利用Zhang等人(2011年)的方法和梯度下降方法(Chen等人,2008年)解决了重复运动问题。Lu等人分析了扰动下的关节漂移问题,并验证了解决方案的有效性(Lu等人,2021年)。惩罚函数方法是解决具有约束的优化问题的有效方法。通过惩罚函数方法,受限目标函数可以转换为无约束目标函数(Yokoyama和Takahashi,2013年)。Zhang等人提出了一种路径规划方法,并通过惩罚函数制定了角速度约束(Zhang等人,2023年)。
大多数现有文献考虑了冗余机器人操作臂的速度级运动规划问题(Cai和Zhang,2009年;Guo和Zhang,2012年;Zhang等人,2008a)。然而,运动规划问题需要在加速度层面进一步解决。本文的研究路线图如图1所示,主要贡献如下:
  • 提出了一种基于惩罚神经网络的加速度级关节无漂移(PNN-ALJDF)方案,用于解决重复运动规划问题。将关节无漂移准则、运动学模型和关节加速度时变约束全局性地构建为加速度级关节无漂移(ALJDF)方案。然后,利用设计的惩罚神经网络求解ALJDF方案。因此,所提出的PNN-ALJDF方案由ALJDF方案和惩罚神经网络组成。
  • 据作者所知,这是首次提出一种创新的关节加速度时变约束,以替代传统的固定值关节限制约束。
  • 设计了一种新颖的惩罚神经网络。该惩罚神经网络可以将ALJDF方案的不等式约束转换为方程约束,并找到比LVI-PDNN更准确的ALJDF方案最优解。
  • 其余部分共有四节。第2节研究了带有不等式约束的ALJDF方案。第3节首先通过加速度级惩罚函数方法构建了带有方程约束的ALJDF方案,然后利用设计的惩罚神经网络获得最优解。第4节展示了PNN-ALJDF方案的有效性、准确性和必要性。第5节总结了整篇论文。

    章节摘录

    ALJDF方案构建

    在本节中,建立了冗余机器人操作臂的加速度级运动学模型。然后,逐步从角速度层面推导出关节无漂移准则。此外,设计了一种新颖的关节加速度时变约束,以替代传统的固定值关节物理约束。最后,根据关节无漂移准则、加速度级运动学方程和关节加速度时变约束提出了ALJDF方案。

    神经网络解决方案

    在本节中,设计了一种惩罚函数方法,将ALJDF方案(10)的不等式约束转换为方程约束。然后,利用提出的惩罚神经网络找到带有方程约束的ALJDF方案的最优解。

    计算机仿真验证

    在本节中,为了验证所提出的PNN-ALJDF方案的有效性,设计了三个独立的轨迹跟踪任务。任务1是完成多边形轨迹跟踪,任务2是完成圆形轨迹跟踪,任务3是通过“

    结论

    本文提出了一种基于惩罚神经网络的加速度级关节无漂移(PNN-ALJDF)方案,用于解决重复运动规划问题。所提出的PNN-ALJDF方案的最大优势在于同时考虑了关节无漂移准则和关节加速度时变约束。操作臂可以返回初始位置,避免周期性重新调整。此外,这是首次设计时变关节

    作者贡献声明

    张志军:资源提供。高西同:撰写 – 审稿与编辑、撰写 – 原稿、可视化、验证、软件、方法论、概念化。郭金佳:调查。

    利益冲突声明

    作者声明他们没有已知的可能会影响本文所述工作的竞争财务利益或个人关系。
    相关新闻
    生物通微信公众号
    微信
    新浪微博
    • 搜索
    • 国际
    • 国内
    • 人物
    • 产业
    • 热点
    • 科普

    知名企业招聘

    热点排行

      今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

      版权所有 生物通

      Copyright© eBiotrade.com, All Rights Reserved

      联系信箱:

      粤ICP备09063491号