通过多阶段自训练提高无源语义分割的测试时间效率

《ACM Transactions on Multimedia Computing, Communications, and Applications》:Improving Test-Time Efficiency in Source-Free Semantic Segmentation via Multi-Stage Self-Training

【字体: 时间:2026年02月27日 来源:ACM Transactions on Multimedia Computing, Communications, and Applications

编辑推荐:

  提出UniSFDA框架,结合跨模型迁移学习、不确定性感知伪标签融合和域内风格增强,解决源域自适应语义分割中的噪声问题,提升分割准确性和测试效率,实验验证在GTA5和SYNTHIA Cityscapes上表现优异。

  
要查看此由AI生成的摘要,您必须具有高级访问权限。

摘要

摘要

无需源数据即可进行领域自适应语义分割,该方法旨在将基于源领域训练的模型适配到目标领域。自我训练已成为解决这一挑战性问题的主要方法。然而,如果没有强大的去噪机制来减少伪标签中的噪声,模型仍然容易产生偏差。大多数现有方法通过引入新的架构来解决这个问题,但往往以增加模型复杂性或依赖额外输入模式为代价。与以往的研究不同,本文提出了UniSFDA,这是一个统一的多阶段自我训练框架,它整合了跨模型迁移学习、基于不确定性的伪标签融合和领域内风格增强,从而提高了分割精度和测试时的效率。我们提出的框架具有极高的灵活性,每个组件都是独立的,可以轻松集成到任何现有的自我训练框架中。此外,我们还研究了在框架内各种代表性分割模型(包括DeepLabv2、SegFormer、DFormer和ViT-Adapter)的性能。值得注意的是,UniSFDA对模型具有通用性,允许源网络和目标网络使用任意的分割架构进行实例化,因此能够轻松受益于未来分割模型的进步。在GTA5城市景观和SYNTHIA城市景观基准测试中的实验证明了我们框架的有效性。以DeepLabv2(SegFormer)作为源模型,UniSFDA在两个基准测试中分别取得了61.8%(65.4%)和57.9%(59.6%)的mIoU分数。

AI摘要

AI生成的摘要(实验性)

此摘要是使用自动化工具生成的,并非由文章作者撰写或审核。它旨在帮助发现、帮助读者评估相关性,并协助来自相关研究领域的读者理解本文的工作。它旨在补充作者提供的摘要,后者仍然是文章的官方摘要。完整文章才是权威版本。点击此处了解更多

点击此处对摘要的准确性、清晰度和实用性进行评论。您的反馈将有助于改进未来的版本。

要查看此由AI生成的通俗语言摘要,您必须具有高级访问权限。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号