基于多阶图卷积神经网络的铣削颤振在线检测

【字体: 时间:2026年03月03日 来源:Mechanical Systems and Signal Processing 8.9

编辑推荐:

  针对航空零件加工中 chatter 振动问题,提出基于多阶图卷积神经网络的在线检测方法,通过优化边权重和聚合多阶邻域特征提升噪声抑制能力,实验验证其在早期弱阶段检测的有效性。

  
李登辉|万敏|杨云|张伟宏
中国西北工业大学机械工程学院航空航天设计与增材制造国家重点实验室,西安710072

摘要

颤振是一种在加工过程中发生的自激振动,尤其是在加工刚性较差的航空航天零件时,会严重影响加工质量和效率。为了防止颤振对铣削过程的不利影响,本文提出了一种基于物理可解释的多阶图卷积神经网络(GCN)的在线颤振检测方法。该方法首先通过测量到的短时多通道振动信号时间序列段构建网络的顶点和边,为在线颤振检测奠定基础。然后,通过收集目标顶点多个阶次邻居的特征信息来发展多阶GCN,以提高其准确性。接下来,利用多次铣削实验获得的振动数据构建并训练深度神经网络。在训练过程中,通过梯度下降方法优化边权重。之后,构建了一个在线颤振检测系统,该系统在不同噪声干扰水平下的测试中表现出良好的抗噪能力。最后,实验验证了所提出方法能够在颤振的早期阶段准确检测到颤振,从而成功防止其不利影响。

引言

高速铣削因其出色的加工能力、高精度和高效率而在航空航天及其他加工领域得到广泛应用。然而,在铣削过程中容易发生一种称为颤振的自激振动,导致一系列不利影响[1],[2]。例如,它会在加工件表面产生颤振痕迹,导致加工精度不合格。由于颤振,刀具磨损也会显著增加。为了提高加工精度和降低成本,在线颤振检测至关重要,因为它可以及时发出警报以预防或抑制颤振。
颤振检测通常包括几个步骤:信号收集、信号处理、特征提取和颤振识别[3]。已经测量了多种信号(如切削力[4]、加速度[5]、位移[6]、声音[7]、电机电流[8]和加工表面[9])用于颤振检测。其中,加速度信号因其高稳定性、易于获取和高有效带宽而被最常使用。然后对测量的原始信号在时间[10]、频率[11]或时频域[12],[13]进行处理,接着进行特征提取。最后,根据提取的特征,通过决策策略(如阈值方法[14],[15])实现颤振识别。例如,Tangjitsitcharoen[16]通过比较计算出的阈值与特定频率范围内切削力功率谱密度与整个频率范围内功率谱密度的比值来检测颤振。Zhang等人[17]利用变分模态分解(VMD)和小波包分解将测量的切削力分解成一系列频率带,然后通过能量熵检测颤振。Yesilli等人[18]使用小波包变换和集合经验模态分解(EEMD)处理加速度信号,并在车削过程中检测颤振。Cao等人[19]通过分析时间和频率域中的不同指标,利用重建的加速度信号成功检测到了颤振。Ding等人[20]针对薄壁工件,使用自适应信号预测器处理声音,并通过小波包熵检测颤振。
颤振可以通过阈值方法直观地识别。然而,阈值的设置严重影响判断结果,并且难以适应不同的切削条件和切削环境。因此,已经开发了多种机器学习方法(如支持向量机(SVM)[21]、长短期记忆(LSTM)[8]和卷积神经网络(CNN)[22]用于颤振识别[23]。Chen等人[24]将EEMD技术应用于三个正交方向的加速度信号,并在每个内在模态函数(IMF)中提取特征,然后通过线性SVM检测颤振。Lu等人[25]从通过多变量VMD得到的对颤振敏感的IMF计算颤振相关因子,并使用SVM检测颤振。Wan等人[26]基于经过变遗忘因子递归最小二乘算法预处理的加速度信号的功率谱密度开发特征,并使用SVM模型成功检测到微铣颤振。Shi等人[27]成功训练了一个有序神经元LSTM神经网络用于颤振检测,其中超参数通过基于种群的训练进行优化。考虑到颤振车削过程中的拍频效应,Sun等人[28]构建了一个集成Inception模块、LSTM和残差网络的深度神经网络用于颤振检测。Rahimi等人[29]使用振动信号中与颤振相关的成分与稳定频率成分之间的能量比作为物理模型的特征,并开发了一个CNN用于检测铣削颤振。在迁移学习框架中,利用EEMD和Hilbert-Huang变换得到的加速度信号图像,开发了一个CNN作为颤振检测的分类器[30]。基于通过连续小波变换(CWT)从测量加速度信号生成的2D图像,开发了一个深度CNN用于铣削颤振检测[31]。通过将1D加速度信号转换为分数阶混沌系统得到的2D动态误差图像,开发了一个分数阶CNN用于车削过程中的颤振检测[32]。使用加工表面图像作为输入,开发了一个权重由磁细菌优化算法初始化、超参数通过遗传算法优化的CNN用于颤振检测[9]。通过集成Inception模块从切削力中提取特征和Squeeze-and-Excitation ResNet块筛选有效特征,开发了一个混合深度CNN用于检测铣削颤振[33]。考虑到薄壁工件铣削过程中颤振频率的变化,还基于自适应频率带注意力模块和判别特征注意力模块建立了一个抗噪CNN模型[34]。Liu等人[35]使用未标记的切削力信号,提出了一种结合高斯混合模型和K-means的无监督方法用于铣削过程中的颤振检测。Yesilli等人[36]使用动态时间弯曲测量时间序列相似性,并使用K-最近邻算法检测车削颤振。在通过t分布随机邻居嵌入技术选择对颤振敏感的特征后,Shi等人[37]开发了一种增强k最近邻方法用于颤振检测。Han等人[38]使用来自时间、频率和时频域的多通道信号的特征,通过基于时间注意力的网络检测铣削颤振。Sharma等人[39]开发了一个小波散射网络,通过自动从车削过程中的声学信号中提取特征来检测颤振。Zhou等人[40]利用迁移学习进行颤振检测,首先通过CWT生成时间-频率图,然后通过轻量级并行卷积神经网络和深度可分离卷积进行特征提取。由于机器学习在特征提取和分类方面的卓越能力,越来越多地被用于颤振检测[39]。然而,需要提高颤振检测的准确性以适应不同的切削条件,特别是在面对不同噪声干扰水平时。
图卷积神经网络(GCN)是机器学习中的一个关键进展,广泛应用于计算机科学、社会科学等多个领域[41]。作为谱图理论与神经网络的结合[42],[43],它将卷积操作推广到非欧几里得域,利用图的固有结构和通过聚合和转换每个顶点及其邻居的信息来学习顶点的表示,从而高效处理图数据[44]。为了提高GCN的性能,还在训练效率[45]和特征组合[46]等方面取得了进展。GCN可以通过将加工过程表示为图来提供一个强大的框架,其中顶点代表不同的测量信号,边捕捉它们之间的关系。因此,在以往研究的基础上,提出了一种基于多阶GCN的在线铣削颤振检测方法。该方法首先通过短时多通道振动信号时间序列段构建网络顶点,以确保在线检测,同时根据对颤振机制的先验知识,通过时间序列段的不同维度和无量纲统计指标构建其特征。目标顶点与其多个阶次的邻居相连,以获取丰富的特征信息。通过相应时间序列段之间的互相关函数建立连接顶点的边。在网络训练过程中,通过梯度下降方法优化边权重,考虑不同顶点之间的颤振特性差异。多阶邻居和可优化的边权重都有助于提高颤振检测的准确性。用于训练和测试开发网络的振动信号是在实验室中测量的,其中噪声通常较弱且恒定。因此,通过在测试数据中添加不同水平的高斯噪声,在不同的噪声环境下进行颤振检测测试,以确保所提方法的泛化能力和检测准确性。
本文的结构如下。第2节描述了多阶GCN技术和相应的颤振检测框架。然后,在第3节中在不同切削条件下对开发的颤振检测方法进行了实验验证。最后,在第4节得出结论。

节选

颤振检测的图模型构建

图模型是用于表示对象之间成对关系的数学结构。与传统的时间序列信息相比,图模型属于非欧几里得空间。它对样本之间关系的表示是时间序列所不具备的,这有助于从新的角度有效检测颤振。图模型由一系列顶点和连接这些顶点的边构成,主要分为两部分

实验过程

如图4(a)所示,基于立式铣床(VMC-V5),在各种铣削条件下进行了斜面铣削实验。所有实验中使用了直径为10毫米的三刃高速钢铣刀。在三次出现颤振的铣削实验后更换了铣刀,以避免严重的刀具磨损。工件由铝合金2A12制成。其几何结构如图4(c)所示。要切割的上表面是一个倾斜平面,高度

结论

针对铣削过程,提出了一种基于物理可解释的多阶GCN的在线颤振检测方法。该方法使用固定且短时(如0.0125秒)的多通道加速度信号时间序列段构建模型的顶点和边,为在线颤振检测奠定了基础。对于顶点,基于对颤振机制的先验知识,使用了六个无量纲统计指标和六个无量纲

CRediT作者贡献声明

李登辉:撰写 – 原稿撰写、验证、软件开发、方法论、概念化。万敏:撰写 – 审稿与编辑、验证。杨云:撰写 – 审稿与编辑、验证。张伟宏:撰写 – 审稿与编辑、监督。

利益冲突声明

作者声明他们没有已知的可能会影响本文工作的财务利益或个人关系。

致谢

本工作得到了中国国家自然科学基金(项目编号52505519、52435009)、中国教育部基础与交叉学科创新计划(项目编号JYB2025XDXM207)以及中央高校基本科研业务费(项目编号G2025KY05069)的支持。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号