UAM-YOLO:一种适用于无人农业机械的轻量级障碍物检测算法,该算法基于结构重新参数化的YOLOv11-Nano模型
《Computers and Electronics in Agriculture》:UAM-YOLO: Lightweight obstacle detection algorithm for unmanned agricultural machinery with structure reparameterized YOLOv11-Nano
【字体:
大
中
小
】
时间:2026年03月07日
来源:Computers and Electronics in Agriculture 8.9
编辑推荐:
环境感知是无人农业机械智能化的关键,本研究提出UAM-YOLO算法,通过C2f-Fast模块和SPPF-ECA模块优化YOLOv11n骨干网络,结合RepDWConvX和GhostConv特征融合模块,以及GIoU损失函数改进检测头。实验表明,该模型参数减少31.9%,计算成本降低53.9%,模型大小缩减12.3%,推理速度提升54.9%至175FPS,在Qualcomm QCS6490平台FPS达10.57,优于YOLOv8-v12。
王新瑞|关贤璐|万环|朱祖赫|郑一通|周志彦
华南农业大学工程学院与岭南现代农业广东实验室,中国广州510642
摘要
对于无人农业机械而言,高精度的环境感知是智能农场发展的关键。本研究提出了一种轻量级算法UAM-YOLO,通过结构参数重参数化和深度可分离卷积对YOLOv11n进行了优化。具体而言,UAM-YOLO引入了一种更快的跨阶段部分网络变体,其中集成了2个卷积(C2f-Fast)模块和具有高效通道注意力(SPPF_ECA)模块的空间金字塔池化,以增强复杂农业场景中的特征提取能力。颈部网络结合了所提出的轻量级增强结构重参数化深度卷积(RepDWConvX)和幽灵卷积(GhostConv),以实现高效的特征融合。检测头采用重参数化的高效特征卷积(RefConv)和一种新颖的损失函数(广义交并比(GIoU)),以提高训练过程中的定位精度。在自定义数据集(包括农业机械(AM)、田间人员(FH)和电线杆(EP))上的实验结果表明,UAM-YOLO仅使用1.76 M个参数和2.9 GFLOPs的计算成本(模型大小4717 KB),就能达到95.9%的mAP@0.50检测精度,并且运行速度超过175 FPS。与原始的YOLOv11相比,该模型的性能指标得到了显著优化:参数数量减少了31.9%,计算成本降低了53.9%,模型大小减少了12.3%,同时推理速度提高了54.9%。此外,针对低成本设备应用,与YOLOv8、v9、v10、v11和v12相比,UAM-YOLO在Qualcomm QCS6490平台上的FPS达到了10.57,优于它们各自的7.27、6.50、7.76、8.05和6.71 FPS。这比基线YOLOv11提高了31.3%。这些进展表明,UAM-YOLO是一种高精度、轻量级的实时解决方案,在智能农场系统中的无人农业机械环境感知方面具有巨大潜力。
引言
随着全球人口增长和工业进步,社会对农业生产力的需求急剧增加。通过无人农场系统实现农业自动化为提高生产力和可持续性提供了有希望的途径。历史上,基于GPS的无人农业机械在这些系统中发挥了关键作用。先前的研究展示了使用传统无人农业设备的自主操作(Takai等人,2014年;Perez-Ruiz等人,2012年)。然而,这些传统系统主要关注静态操作环境,而忽视了动态环境变化。随着无人农业机械的广泛采用,一些关键限制被暴露出来:在动态场景中感知能力不足,无法应对突然出现的行人或其他农业机械,从而导致操作安全风险。在这种背景下,障碍物识别技术变得至关重要,因为它能够实现实时环境感知和解释,从而提高操作安全性。
因此,像视觉和LiDAR这样的技术被广泛用于障碍物识别(Dou等人,2024年)。例如,Lemke等人(2023年)通过将LiDAR与GPS结合,实现了高精度的障碍物定位。尽管有这一优势,LiDAR数据给神经网络的集成带来了挑战,需要大量的预处理。与点云处理相关的大量计算负担也引入了显著的延迟,阻碍了边缘计算平台的实时性能。此外,相机的采样频率通常高于LiDAR。因此,当与双目相机系统结合使用时,机器视觉成为了一个更可行的替代方案。
然而,传统的机器视觉方法——例如Xu等人(2021年)使用Lucas-Kanade光流算法在全景图像中检测移动障碍物——往往依赖于手动设计的特征提取方法,这需要深厚的领域专业知识。当面对多样化的无人农业机械操作环境时,这些方法可能需要重大的调整或重新设计。此外,手动特征提取在处理复杂农场场景时存在局限性,特别是在光照和背景变化等动态因素的影响下。为了克服这些限制,基于深度学习的视觉技术(Ball等人,2016年)随后被应用于无人农业机械的环境感知,使得能够从大型数据集中自动学习特征,从而实现比传统机器视觉更高的检测精度。
最近,各种基于深度学习的检测算法迅速涌现,大致分为两阶段(例如R-CNN系列:Faster R-CNN(Ren等人,2017年);Mask R-CNN(He等人,2018年))和单阶段检测器(例如SSD(Liu等人,2016年);YOLO系列(Redmon等人,2016年)。其中,YOLO(You Only Look Once)作为一种单阶段检测器,在无人农业机械环境感知中因其出色的性能而受到关注。然而,作为一种通用检测算法,YOLO仍然保留了大量的参数和计算需求。对于特定的无人农业机械任务,这种设计可能会显得冗余。此外,最近的YOLO发展趋势更注重精度提升,而牺牲了模型的轻量化。例如,Tian等人(2025年)提出的先进YOLOv12在精度上有所提升,但推理时间增加,可能在计算资源有限的边缘设备上无法实现理想的帧率。尽管现有的研究(如YOLOv11n-SKS(Han等人,2025年)和YOLOv8-PSS(Chen等人,2024年)通过减少参数和理论计算量实现了一定程度的网络轻量化,但这些模型在嵌入式设备上的验证不足。此外,优化后的模型在计算上仍然要求较高。因此,推理延迟仍然是一个挑战,表明轻量化的目标尚未完全实现。我们认为,模型轻量化的最终目标应该是在更经济、性能较低的设备上实现更高的帧率(FPS),而不仅仅是减少参数或理论计算量。
到目前为止,开发一种轻量级、高帧率的无人农业机械环境感知算法——同时保持精度并在嵌入式设备上实现部署能力——仍然是一个持续的挑战。因此,本研究利用了Ultralytics开发的最新旗舰模型YOLOv11(Jocher等人,2024年),该模型以其在检测速度和精度之间的最佳平衡而闻名,来开发一种轻量级、高帧率的环境感知算法。其目标是解决当前研究的局限性,并满足实际应用需求,特别是针对无人农业机械中的嵌入式系统进行优化。
数据集生成
本研究选择位于江苏省兴化市的兴华现代农业工业园区作为实验地点。使用ZED 2i RGB-D深度相机以960 × 540的分辨率拍摄图像。为了模拟农业机械的实际工作环境,相机被安装在机器(包括联合收割机和拖拉机)的前顶盖上。农业机械操作环境中的目标对象被分为三类
关于主干网络、颈部网络和检测头架构的消融研究
在这项研究中,我们的目标是通过修改YOLOv11网络来开发一种适用于农业机械操作环境的轻量级感知算法。关键改进包括采用C2f-Fast和SPPF-ECA模块进行特征提取,RepDWConvX和GhostConv进行特征融合,以及引入RefHead检测头和GIoU损失函数。为了阐明每种修改的影响,在相同的训练环境下进行了消融研究
结论
无人农业机械操作的环境感知在很大程度上依赖于物体检测技术。在这一领域,现有算法显示出出色的精度,但通常消耗大量计算资源。当前的挑战在于开发一种既能保证高精度又能实现足够轻量化设计的算法,以便在处理能力有限的边缘计算设备上部署。为了解决这一挑战,我们提出了UAM-YOLO,这是一种轻量级的
CRediT作者贡献声明
王新瑞:撰写——原始草稿、可视化、验证、软件、方法论、调查、形式分析、数据管理、概念化。关贤璐:撰写——审阅与编辑、监督、资源管理、项目管理、调查、数据管理、概念化。万环:资源管理、调查、数据管理。朱祖赫:资源管理、调查、数据管理。郑一通:资源管理、调查、数据管理。周志彦:撰写——审阅与编辑,
利益冲突声明
作者声明他们没有已知的竞争性财务利益或个人关系可能影响本文报告的工作。
致谢
本工作得到了中国国家重点研发计划(2022YFD2001501)、岭南现代农业实验室项目(NT2025006)和广东省科技计划(2023B10564002)以及中国留学基金委(202308440394和202508440177)的支持。作者感谢审稿人和编辑们的建设性意见。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号