在熔融沉积建模中使用基于深度学习的视觉模型进行实时变形检测

《Engineering Applications of Artificial Intelligence》:Real-time warping detection in fused deposition modeling using deep learning based vision models

【字体: 时间:2026年02月24日 来源:Engineering Applications of Artificial Intelligence 8

编辑推荐:

  实时基于计算机视觉的FDM打印翘曲检测框架设计与模型对比分析,通过标准摄像头采集打印初层图像,构建YOLOv11与ResNet50双模型检测系统,实验表明ResNet50在分类精度达97%的同时,YOLOv11实现75ms快速检测,二者结合可提升缺陷监测的实时性与准确性。

  
作者:阿南德·拉克昆迪(Anand Lakkundi)、M·希瓦普拉萨德(M. Shivaprasad)、S.M.米娜(S.M. Meena)
印度卡纳塔克邦胡巴利市KLE技术大学机械工程系

摘要

翘曲是熔融沉积建模(Fused Deposition Modeling, FDM)中常见的故障模式之一,它可能导致尺寸不准确、与打印平台分离,甚至完全无法完成打印。本研究部分内容概述了一个基于视觉的机器学习框架的创建方法,该方法通过分析标准网络摄像头拍摄的初始打印层的高分辨率图像来实时检测翘曲现象。本节的第一部分重点是在受控实验环境中提供翘曲特征数据,以便用于监督训练。
在我们的实验中,我们比较了两种深度学习方法:一种是称为“你只需看一次”(You Only Look Once, YOLO)v11的单一阶段目标检测架构,另一种是基于50层残差网络的深度卷积神经网络(Deep Convolutional Neural Network)。在使用这两种架构进行训练时,残差网络被用作轻量级的二分类器来检测翘曲,而目标检测模型则能够确定打印件上翘曲区域的空间位置。实验结果清楚地表明,残差网络能够实现出色的分类性能,准确率为91.8%,精确率为90.3%,召回率为93.1%,F1分数为91.7%,在Raspberry Pi 4设备上的平均推理时间约为110毫秒。相比之下,目标检测模型的平均推理时间更快,约为75毫秒,召回率也非常高(92.0%),这使得实时监控成为可能,尽管其精确率和F1分数略低。
根据研究结果,轻量级分类与实时目标检测的结合展示了互补的能力,有助于提升FDM打印过程中的翘曲监测效果。所提出的比较框架也适用于各种需要快速、可靠且易于解释的决策支持的基于视觉的缺陷检测应用,涵盖了制造和成像系统领域。

引言

熔融沉积建模(FDM)因其低成本、广泛的材料选择和简单的用户界面而成为最受欢迎和最易于使用的增材制造技术之一。这项技术因其适用于快速制作原型、教育模型和产品开发以及医疗仪器而广受欢迎。3D打印技术的普及使得FDM在业余爱好者和工业环境中的使用日益增加。尽管FDM具有诸多优势,但仍存在一些技术缺陷,这些缺陷会影响打印质量和可靠性,其中翘曲问题尤为突出。
当打印物体在基底层从构建平台上分离或开始卷曲时,就会发生翘曲现象。这种变形是由于打印冷却过程中产生的热梯度和应力积累造成的。热塑性材料冷却和收缩不均匀时会产生机械应力,从而扭曲预期的打印几何形状。由此过程引起的变形会导致测量不准确,机械性能下降,在极端情况下甚至会导致打印失败。对于功能性和精确性要求高的零件打印来说,这一问题尤为严重,因为微小的设计偏差可能导致无法使用的输出结果。
图1和图2展示了各种缺陷在所有缺陷中的占比,这些数据来源于对FDM打印过程故障的综合观察和文献报告(表1)。这些不同类型的缺陷突显了FDM用户面临的问题,尤其是在机械强度、可重复性和尺寸完整性方面。传统上,缓解这些问题(尤其是翘曲问题)依赖于反应性校正措施,如手动调整参数、使用粘合剂、加热床或边缘支撑结构,以及频繁的人工干预。这些基于试错的方法效率低下,浪费时间和资源,并且只能在缺陷变得明显或不可逆之后才能发现它们。实时自动缺陷检测系统为预防性质量保证带来了巨大潜力,有助于克服这些限制。本文研究了YOLOv11和ResNet50等先进模型如何利用网络摄像头获取的初始FDM打印层图像自动检测翘曲,并探讨了它们在增材制造中预测性质量控制方面的应用效果。
目前解决翘曲问题的方法通常是在问题出现或其影响可检测到之后才采取行动。传统的减少翘曲的方法包括手动调整打印参数、使用粘合剂和加热床、添加边缘支撑结构以及改变零件方向。然而,在特定情况下,这些方法的效率有限,因为用户需要依靠经验通过试错来进行调整。已经开始的翘曲通常会造成永久性损坏,从而导致时间和材料的浪费以及能源损失。等到翘曲出现才进行干预的做法会妨碍操作,并增加产品的一致性难度,尤其是在需要保持一致性的产品生产中。
由于FDM技术价格实惠、用户友好且能够快速制作出具有复杂几何形状的原型,因此被广泛使用(Rodriguez等人,2012年)。打印翘曲是FDM打印中普遍存在的问题,它会影响打印表面的质量和一致性(Shahrampour等人,2019年)。打印层的不对称冷却会导致翘曲,进而导致打印件边缘翘起或功能失效(Redmon等人,2016年;Ren等人,2017a)。传统的翘曲检测方法主要依赖于事后验证或人工目视检查,这些方法效率低下,不适合早期检测(He等人,2016年)。先进的计算机视觉和机器学习技术可以实现实时自动缺陷检测,从而在打印过程中进行非破坏性的质量检查(Matsuzaki和Ueda,1996年;Ren等人,2017b;Simonyan和Zisserman,2015年)。
本文探讨了利用机器学习模型检测FDM打印过程中翘曲现象的方法。通过基本的网络摄像头获取前几层的高分辨率图像,并通过引入翘曲和未翘曲的样本来构建目标检测模型的训练集(Tan和Le,2019年;Bojanowski和Joulin,2017年)。本文比较了两种模型:YOLOv11目标检测架构和ResNet50,后者是一种属于残差网络家族的复杂卷积神经网络,以其强大的模式识别能力和高性能而闻名(LeCun等人,2015年;Wu等人,2019年)。
在包含一千多种对象的ImageNet数据库上训练的ResNet50模型被转化为二分类问题(Fang等人,2021年)。去除了最终的分类层,并添加了新的层以区分翘曲和未翘曲的打印件。保留了原有的网络结构,以保持其出色的低级特征检测能力,例如边缘、纹理和形状(Zhang等人,2019a)。这使得该模型在轻量级应用中能够高效训练和部署(Goodfellow等人,2016年;Chollet,2017年)。通过实现翘曲检测,这类模型有望尽早进行纠正,减少材料浪费,并提高打印成功率。引入此类检测系统是增材制造过程预测性质量保证的重要步骤(Howard等人,2017年;Peng等人,2025年)。

参考文献

由于FDM技术的经济性和设计灵活性,它已成为最受欢迎的增材制造工艺之一。然而,由于冷却不均匀和热应力等问题,打印翘曲仍然是一个主要问题,经常导致打印失败和零件变形(Ben Hammouda等人,2024年)。早期阶段的翘曲尤其麻烦,因为它可能毁掉整个打印件,但往往直到后期才被发现。

方法论

本文概述了一种利用计算机视觉技术开发基于机器学习的FDM 3D打印翘曲检测系统的流程。主要目标是在低功耗平台上使用标准成像设备和轻量级神经网络实现实时、非破坏性的检测。该方法包括以下步骤:数据采集、数据预处理、模型构建和学习以及性能评估(图3)。

结果与讨论

本文展示了用于检测FDM打印早期阶段翘曲的两种模型的性能结果:ResNet50和YOLOv11。这两种模型都在相同的数据集上进行了训练和测试,重点关注分类准确性、速度、泛化能力和在低功耗设备上的部署能力。
  • ResNet50的性能:
ResNet50分类器在测试集上取得了以下结果:
  • 准确率:97%(验证准确率与测试准确率相比)
  • 结论

    利用标注的高分辨率打印图像,本研究评估了ResNet50和YOLOv11在FDM增材制造中实时检测翘曲缺陷的有效性(Chen等人,2020b;Zhang等人,2019c;Li等人,2021c;Park等人,2021;Hassan等人,2020)。在Raspberry Pi 4设备上,每张图像的平均推理时间为约110毫秒,预训练的ResNet50二分类器实现了97.0%的准确率、98.3%的精确率和93.1%的召回率。

    CRediT作者贡献声明

    阿南德·拉克昆迪(Anand Lakkundi):负责正式分析、数据整理和概念构思。M·希瓦普拉萨德(M. Shivaprasad):负责正式分析、数据整理和概念构思。S.M.米娜(S.M. Meena):负责撰写、审稿和编辑以及概念构思。

    利益冲突声明

    作者声明不存在任何可能影响本文工作的已知财务利益或个人关系。
    相关新闻
    生物通微信公众号
    微信
    新浪微博
    • 搜索
    • 国际
    • 国内
    • 人物
    • 产业
    • 热点
    • 科普

    知名企业招聘

    热点排行

      今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

      版权所有 生物通

      Copyright© eBiotrade.com, All Rights Reserved

      联系信箱:

      粤ICP备09063491号