一种基于多源数据的小麦半监督深度学习框架:从计数到产量估算

《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》:A semi-supervised deep learning framework based on multi-source data for wheat: from counting to yield estimation

【字体: 时间:2026年03月24日 来源:ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING 12.2

编辑推荐:

  高效小麦穗与穗粒分割及计数方法研究

  
该研究聚焦于通过智能化技术提升小麦产量估算的效率与精度,针对传统方法依赖人工标注且难以适应复杂田间环境的痛点,提出了一套基于深度学习的半监督解决方案。研究团队首先构建了小麦专用分割模型Wheat-SAM,通过适配器机制优化通用模型SAM的参数,使其能更精准地识别小麦穗部与籽粒。随后设计了伪标签生成流程,利用Wheat-SAM对无人机拍摄的田间图像进行自动标注,形成训练数据集。最终基于伪标签训练出双任务网络WSCU-Net,实现穗部分割与籽粒计数的一体化操作。

在技术路径上,研究采用分层递进策略。首先突破数据标注瓶颈,通过迁移学习将通用图像分割模型SAM转化为小麦专用模型Wheat-SAM。该模型创新性地采用双适配器结构,分别处理穗部轮廓特征与籽粒分布特征,有效解决了传统单适配器模型在复杂场景下的泛化能力不足问题。实验表明,该模型在不同光照条件、植株密度和品种差异下的识别准确率稳定在92%以上,较常规方法提升约15%。

伪标签生成系统构建了自动化标注链条。利用Wheat-SAM的分割能力对原始图像进行初步处理,结合形态学分析消除冗余区域,再通过多尺度特征融合技术生成高置信度伪标签。该流程经实测验证,单张图像标注耗时从传统人工的8分钟缩短至3秒,且标注一致性达到96.7%。特别在穗部与籽粒重叠区域,系统通过边缘增强算法和纹理特征提取,使分割准确率提升至89.2%。

WSCU-Net模型采用双分支架构实现同步处理。主干网络通过深度可分离卷积降低计算量,同时保留空间分辨率优势;注意力模块则采用高效多尺度注意力机制,自动聚焦于穗部关键区域。实验对比显示,该模型在穗部分割的IoU(交并比)达到0.8409,籽粒计数与真实值的R2系数达0.766,均接近全监督模型性能。创新点在于首次将分割与计数任务深度耦合,通过共享特征提取层减少信息损耗,使穗部定位精度直接影响籽粒计数的准确性。

实际应用测试表明,该系统在多个小麦品种(如济麦44、郑麦136、石麦22)中均保持稳定性能。在黄淮海地区与西北旱作区的对比实验中,模型在穗密度差异达3倍的场景下,仍能保持98.6%的跨区域适应能力。与现有UAV检测方案相比,WS CU-Net的推理速度提升至29.7 FPS,在1080P高清图像处理中每秒可完成4.2个穗部区域的分割与计数。

成果验证部分揭示了模型与实际产量的强关联性。通过12个典型生长阶段的田间试验数据,系统预测的穗数与籽粒总数与官方收获测产数据的相关系数达0.6918。在模拟产量预测中,模型成功将误差率控制在6.3%以内,显著优于传统人工测量方法的15%误差率。特别是在倒伏和病害场景下,系统通过自注意力机制强化受损区域检测,使产量估算的鲁棒性提升22%。

该技术体系的应用价值体现在三个层面:其一,通过减少人工标注量(伪标签生成效率提升40倍),使研究周期从传统方法的18个月缩短至6个月;其二,集成UAV多源数据采集(含可见光、近红外、多光谱),形成覆盖全生长周期的数字化档案;其三,构建的标准化数据集已包含50万张标注图像,成为行业首个开放共享的小麦表型数据库。

研究特别关注了跨区域适应性测试。在华北平原与西北戈壁的对比实验中,系统通过迁移学习预训练模块,仅需200张本地图像即可完成模型微调,在穗密度从1200穗/平方米到4500穗/平方米的范围内保持85%以上的识别准确率。这种轻量化适配能力使技术能快速部署到不同生态区。

未来改进方向包括:引入时序分析模块以追踪穗部发育过程;开发边缘计算适配版本以降低部署成本;构建多模型融合架构以提升复杂环境下的鲁棒性。该研究为智慧农业提供了可复用的技术框架,特别在产量预测精度与效率提升方面,为粮食安全战略提供了新的技术支撑。
相关新闻
生物通微信公众号
微信
新浪微博

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号