DDS-UDA:双域协同技术在无监督领域适应中的应用——用于视盘和视杯的联合分割
《Medical Image Analysis》:DDS-UDA: Dual-Domain Synergy for Unsupervised Domain Adaptation in Joint Segmentation of Optic Disc and Optic Cup
【字体:
大
中
小
】
时间:2026年03月27日
来源:Medical Image Analysis 11.8
编辑推荐:
医学图像分割中提出Dual-Domain Synergy UDA框架,通过动态掩码生成实现跨域双向一致性正则化,结合频率驱动伪标签学习提升域内泛化能力,有效解决多源医学影像分割中的域偏移问题。
肖宇松|吴旭轩|肖莉|曲刚|霍海叶|王玉萍
中国科学技术大学脑启发智能感知与认知关键实验室,合肥,230052,中国
摘要
卷积神经网络(CNN)在单机构数据集的光盘和视杯联合分割任务中取得了令人兴奋的性能。然而,其临床应用受到两个主要挑战的阻碍:大规模、高质量注释的有限可用性,以及在不同成像协议和采集平台部署时由于领域偏移导致的性能下降。虽然无监督领域适应(UDA)提供了一种缓解这些限制的方法,但大多数现有方法没有在统一框架内解决跨领域干扰和领域内泛化问题。在本文中,我们提出了双领域协同UDA(DDS-UDA),这是一个包含两个关键模块的新UDA框架。首先,通过一个从粗到细的动态掩码生成器引导的特征级语义信息交换,强制实施双向跨领域一致性正则化,以抑制噪声传播同时保持结构一致性。其次,使用频率驱动的领域内伪标签学习模块来通过合成光谱幅度混合的监督信号来增强领域内泛化,从而确保跨领域的高保真特征对齐。DDS-UDA在教师-学生架构中实现,将领域特定偏差与领域不变的特征级表示分离,从而实现对异构成像环境的鲁棒适应。我们在两个多领域眼底图像数据集上对所提出的方法进行了全面评估,证明其性能优于几种现有的基于UDA的方法,因此为光盘和视杯分割提供了一种有效的方法。
引言
在眼底图像中,光盘(OD)和视杯(OC)是反映视神经头形态的关键解剖结构,与青光眼等眼部疾病的诊断和监测密切相关(Moris等人,2023年;Sears等人,2019年)。准确的光盘/视杯分割为可靠的形态学评估和后续的临床解释提供了基础。然而,手动分割OC和OD通常耗时且存在较大的专家间差异。深度学习最近被广泛用于自动分割这些区域。特别是基于监督学习(SL)的分割模型使用大规模标记数据集进行训练(Fu等人,2018年;Kui等人,2025年),其中训练和测试数据通常被假设为独立同分布(Song等人,2024年)。然而,在实践中这一假设并不总是成立,例如,当从多个站点使用不同的扫描设备和/或采集协议收集数据时(Guan和Liu,2022年)。具体来说,从训练数据到测试数据存在领域偏移,导致分割准确性和稳定性显著降低。
为了解决这个问题,提出了领域适应方法,将源领域训练的模型通过微调迁移到目标领域。理想情况下,领域适应方法可以使用目标领域的足够标记数据来微调源领域的预训练模型(Dou等人,2018年;Chartsias等人,2017年),但在实际临床场景中,目标领域的标记数据往往难以获得(Li和Fan,2023年;Dong等人,2024年)。最近,无监督领域适应(UDA)在医学图像分割中引起了广泛关注(Xian等人,2023年;Zhao等人,2023年;Kumari和Singh,2023年;Sun等人,2022年),因为当可以保留历史注释的队列进行迭代模型更新时,这种方法非常实用,并且不依赖于目标领域的标签。注意,我们关注的是标准UDA设置,其中标记的源数据在适应过程中仍然可用,这与假设源数据不可用的无源领域适应(SFDA)不同。UDA方法旨在通过学习领域不变的特征来最小化领域偏移的影响。例如,基于生成对抗网络(GAN)的UDA方法(Zheng等人,2024年;Xian等人,2023年)已被探索用于执行图像风格转换,其中堆叠了多种类型的分类器和鉴别器以实现高维特征对齐,从而有助于学习领域不变的特征。然而,这些方法由于GAN的对抗性质,常常容易受到训练不稳定和模式崩溃的影响,导致特征表示不理想(Zheng等人,2024年)。为了解决这一限制,开发了基于注意力的UDA方法(Ji和Chung,2024年),其中利用自注意力或交叉注意力机制来捕获长距离依赖性并对齐跨领域特征。它们在建模复杂关系方面表现出色,但代价是计算量大和参数复杂(Valindria等人,2018年)。最近,基于扩散的UDA方法作为跨越领域差距的另一种生成范式被探索(Lin等人,2024年)。通过将跨领域转换表述为渐进式去噪过程,扩散模型通常提供更稳定的优化和更好的结构保留,与对抗性图像转换相比。然而,迭代采样过程通常会引入大量的计算开销和推理延迟,且性能可能对扩散超参数敏感。
受到半监督学习策略的启发,可以通过结合两种范式(即一致性正则化和伪标签学习)来改进UDA方法,以应对领域偏移(Jing等人,2023年;Wang等人,2025年)。一致性正则化通常要求模型在(i)目标图像的领域内扰动(例如,强/弱增强、噪声注入)或(ii)源样本和目标样本之间的跨领域转换下产生一致的预测。然而,它可能无法充分保留对解剖学保真度至关重要的细粒度结构关系和语义边界敏感性(Wu等人,2023年)。伪标签学习使用目标领域中的未标记数据通过迭代自训练过程生成伪标签,这些伪标签在后续训练中被优化为监督信号。然而,它仍然容易受到噪声伪标签的错误传播影响,特别是在初始训练阶段置信度较低时。最近的研究(Kim等人,2022年;Tang等人,2023年)提倡通过结合一致性正则化和伪标签学习来构建一个统一框架,但忽略了这两种范式之间的内在协同作用。此外,选择伪标签的方法(Tang等人,2023年)依赖于选择策略,这可能会引入过多的噪声。
为了解决这些限制,我们提出了一种新的医学图像分割UDA框架,该框架结合了领域内伪标签学习和基于教师-学生架构的双向跨领域一致性正则化。首先,采用频率驱动的伪标签学习路径来通过减少噪声和单个图像中的不一致性来提高学习稳定性。此外,我们提出了一种动态掩码生成机制来实现跨领域一致性正则化。动态掩码指导源领域和目标领域之间的双向特征混合,从而在抑制领域特定噪声的同时整合跨领域信息。通过联合优化这些组件,所提出的框架学习了领域不变的特征级表示,并在不需要目标领域标签的情况下实现了准确的分割。
本文的贡献总结如下。
•我们提出了一种新的双领域协同UDA框架“DDS-UDA”,将双向跨领域一致性正则化与领域内伪标签学习相结合。这通过教师-学生架构实现,以确保对多领域医学图像分割的鲁棒适应。
•我们提出了频率驱动的领域内伪标签学习,通过光谱幅度混合增加领域内多样性,从而为跨领域特征对齐提供高保真的监督。
•我们设计了动态跨领域一致性正则化,通过双向交换语义来抑制跨领域干扰。它包含一个动态掩码生成器,逐步提高对关键解剖结构的敏感性,从粗到细的尺度。
•我们的DDS-UDA在两个公开可用的多领域眼底图像分割数据集上进行了全面验证,并证明其性能显著优于最先进的方法。
部分摘录
OC和OD的联合分割
在眼底图像中,OC和OD是关键的解剖特征,与青光眼等疾病的诊断相关(Moris等人,2023年;Sears等人,2019年)。因此,研究眼底图像中OC和OD的联合分割至关重要,已有大量研究致力于开发更健壮和准确的分割方法。Ding等人(Ding等人,2020年)和Bhattacharya等人(Bhattacharya等人,2023年)改进了注意力模块
概述
在UDA设置中,有两个领域,即源领域DS和目标领域DT。设是源领域的训练图像及其对应的标签,而是目标领域用于适应的未标记图像,其中Ns和Nt分别是两个领域的样本数量。我们的目标是通过UDA来减轻DS和DT之间的差异。
图1展示了我们提出的DDS-UDA,其中我们使用了教师-学生架构
数据集和实现
遵循Wang等人(2020年)的方法,我们使用了Fundus数据集,该数据集由来自不同医疗中心的四个公共光盘/视杯分割数据集组成,使用不同的相机拍摄。具体来说,这四个领域对应于Drishti-GS、RIM-ONE-r3以及REFUGE挑战赛的训练和验证子集。由于采集协议、视野、图像分辨率和照明的差异,这四个数据集在外观上存在明显差异
结论
在本文中,我们提出了DDS-UDA,用于无监督领域适应,以联合分割光盘和视杯,该方法基于结合双向跨领域一致性和领域内伪标签学习。所提出的双向跨领域一致性利用动态特征级掩码逐步抑制领域特定噪声,同时通过从粗到细的特征交换保持结构语义。另一方面,频率驱动的伪标签
CRediT作者贡献声明
肖宇松:写作——审阅与编辑,撰写——原始草稿,可视化,验证,监督,项目管理,方法论,调查,数据管理,概念化。吴旭轩:写作——原始草稿,可视化,验证,项目管理,方法论,概念化。肖莉:写作——审阅与编辑,撰写——原始草稿,验证,监督,资源管理,方法论,调查,资金获取,概念化。曲刚:写作——
利益冲突声明
作者声明他们没有已知的竞争财务利益或个人关系可能影响本文报告的工作。
致谢
本工作部分得到了中国国家自然科学基金(项目编号12261059和62202442)、江西省自然科学基金(项目编号20224BAB211001)、NIH(项目编号R01GM109068、R01MH104680、R01MH107354、R01EB006841、P20GM103472和U19AG055373)以及NSF(项目编号1539067)的支持。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号