《Biosystems Engineering》:A tracking-by-classification approach for continuous individual monitoring of Holstein dairy cows in a free-stall barn
编辑推荐:
为解决商业散养牛棚中奶牛频繁进出监控视场(FOV)导致的长期连续跟踪困难问题,研究人员开展了一项基于“追踪-分类”范式的研究。该方法引入独特的两步匈牙利匹配流程,结合YOLOv8目标检测与特征分类,在长达1小时的视频测试中,在IDF1、HOTA等身份一致性指标上显著优于SORT、DeepSORT等传统多目标追踪(MOT)算法,为实现基于计算机视觉(CV)的非侵入式、精准化个体奶牛健康与福利长期监测提供了可靠技术方案。
在现代规模化奶牛养殖中,实时掌握每头牛的行为、健康与福利状况,是确保牧场高效管理与动物福祉的关键。传统依靠人工观察或可穿戴传感器的方法,不仅费时费力、成本高昂,还可能干扰动物的自然行为。近年来,计算机视觉技术以其非侵入、高效率的特点,成为自动化监测的希望之星。然而,现有的视觉追踪方法多专注于短时、目标始终在镜头内的场景。在真实的商业散养牛棚中,由于环境复杂及日常管理活动(如挤奶、修蹄),奶牛频繁进出摄像头的视野范围,一旦离开后再回来,系统往往“认不出”这是刚才那头牛,从而导致身份标识(ID)切换,使得长期、连续的个体追踪变得异常困难。针对这一瓶颈,一项发表在《Biosystems Engineering》上的研究提出了一种创新的解决方案。
为了攻克奶牛重入视野后的再识别难题,实现真正的长期连续追踪,苏黎世联邦理工学院的研究团队开发了一种名为“追踪-分类”的新方法。该方法不依赖于基于运动预测的传统多目标跟踪(MOT)范式,而是将问题转化为对每一帧中检测到的奶牛进行“身份分类”。研究人员在瑞士的一家研究牧场展开实验,对13头泌乳荷斯坦奶牛(7头黑花,6头红花)进行了数月的视频数据采集。他们构建了三个数据集:用于训练目标检测器的标注帧数据集、用于训练个体分类器的奶牛全身图像数据集,以及包含不同时长(5分钟、30分钟、1小时)和光照条件(白天、夜晚)的测试视频数据集。研究核心采用了YOLOv8模型,分别微调用于目标检测和个体分类。其创新性在于设计了一个两步匈牙利匹配关联流程:首先,将分类置信度≥0.9的高置信度检测与身份进行最优匹配;其次,用剩余的检测和身份,对置信度在0.6及以上的检测进行第二轮匹配,从而在最大化整体分类概率的同时,有效关联检测框与正确的奶牛身份。
主要技术方法
本研究采用“追踪-分类”框架,核心包括:1) 使用基于YOLOv8的卷积神经网络(CNN)目标检测器定位视频帧中的奶牛;2) 使用另一个基于YOLOv8的图像分类器,对检测出的奶牛区域进行特征提取与个体身份概率预测;3) 设计了一种新颖的两步线性分配问题(LAP)匈牙利匹配流程,基于分类概率矩阵将检测框与13个已知奶牛身份进行关联,优先匹配高置信度检测,以优化长期身份一致性。研究使用来自AgroVet-Strickhof研究牧场的13头荷斯坦奶牛视频数据进行模型训练与测试。
3.1. 目标检测器与分类器性能
研究人员评估了不同版本的YOLOv8模型。对于目标检测,YOLOv8x模型在交并比(IoU)0.5-0.95范围内的平均精度(mAP)最高,达到89.8%,被选为最终检测器。对于个体分类,YOLOv8l-cls模型取得了最高的Top-1准确率(91.7%),在性能与训练效率间取得了最佳平衡,因此被选为最终分类器。
3.2. 追踪性能对比
研究将提出的方法与SORT、DeepSORT、ByteTrack和TrackFormer四种主流MOT算法在测试集上进行了全面对比。评价指标包括多目标追踪准确率(MOTA)、身份F1分数(IDF1)、高阶追踪准确率(HOTA)、基本被追踪(MT)、基本丢失(ML)和身份切换(IDSW)。结果表明,在30分钟和1小时的长视频中,尤其是在奶牛频繁重入视野的场景下,本方法在IDF1和HOTA两项衡量身份一致性的关键指标上全面优于所有对比算法。例如,在1小时的白天视频中,本方法的IDF1和HOTA分别达到0.967和0.942,而对比算法中最佳表现分别仅为0.829和0.846(ByteTrack)。这证明该方法在维持长期身份一致性方面具有显著优势。尽管本方法在长视频中的IDSW计数绝对值较高,但分析表明这些切换通常是短暂的,系统能快速纠正,因此整体身份一致性仍保持优异。
讨论与结论
该研究成功开发并验证了一种用于散养牛棚荷斯坦奶牛长期连续追踪的“追踪-分类”方法。该方法通过将重入视野的再识别问题转化为分类任务,并利用两步匈牙利匹配进行优化关联,有效解决了传统MOT算法在长期跟踪中身份切换频繁的痛点。其重要意义在于为基于计算机视觉的奶牛个体化行为与健康监测提供了更可靠的身份跟踪基础,有助于早期发现疾病迹象(如跛行、代谢紊乱)和评估动物福利。
研究也指出了当前方法的局限性与未来方向。首先,身份切换多发生在奶牛仅部分身体进入视野或被遮挡时,因为分类器训练时主要使用了全身图像。未来需纳入部分可见的样本以提升分类器鲁棒性。其次,方法依赖于奶牛独特的体表花纹,对于缺乏明显特征的品种(如瑞士褐牛),需结合射频识别(RFID)或深度传感器等多模态数据。再者,若牛群引入新个体,分类器需要重新训练。尽管存在这些挑战,本研究证实了“追踪-分类”范式在处理动物重入视野问题上的有效性,为将其整合到长期行为监测系统、进而提升畜牧业管理的精准化与动物福利水平铺平了道路。