《Digital Signal Processing》:HMU-Net: Hybrid Multi-scale Attention U-Net for Breast Lesion Segmentation in Ultrasound
编辑推荐:
乳腺癌超声图像分割中提出基于U-Net的混合多尺度注意力模块(HMAM)与细节增强通道空间注意力模块(DCSAM),通过多尺度特征提取与注意力机制协同优化,显著提升肿瘤边界分割精度与模型泛化能力,实验验证其优于现有方法。
冯军|谢雨欣|刘梦然|邢伟通|袁明泽|姚向翔
新疆大学软件学院,乌鲁木齐,830000,中国
摘要
乳腺癌是全球主要的健康挑战之一,早期诊断对于降低死亡率至关重要。由于超声图像中病变边界模糊且大小不一,精确的分割仍然面临巨大挑战。在这项研究中,我们提出了一种基于U-Net框架的混合架构,用于自动肿瘤分割。在编码器和解码器之间引入了混合多尺度注意力模块(HMAM),通过多尺度特征提取和注意力机制的协同作用来捕获更丰富的特征信息并抑制冗余干扰。此外,还在跳跃连接中嵌入了细节增强通道和空间注意力模块(DCSAM),该模块计算特征图中的像素差异,并整合通道和空间注意力机制,以精确捕获具有上下文意识的特征,显著提升了模型的泛化能力和边界分割精度。在两个公开的乳腺超声数据集上的实验表明,我们提出的方法在分割性能上优于现有的先进方法,其有效性和优越性得到了验证。
引言
乳腺癌是一种全球性的主要疾病,是女性死亡的主要原因之一,对女性健康和生命构成了严重威胁[1]。早期诊断对于降低死亡率非常重要。目前常用的方法包括乳腺X线摄影、计算机断层扫描(CT)、磁共振成像(MRI)和乳腺超声。其中,乳腺超声在辅助诊断中具有重要价值,尤其是在乳腺X线摄影结果不明确的情况下,或者用于评估乳腺肿块的性质(良性或恶性)。基于B模式乳腺超声的计算机辅助诊断(CAD)系统已经开发并在临床实践中应用[2],以解决乳腺癌诊断中观察者间存在的较大差异性问题,从而提高诊断的准确性和一致性。此外,增强对比度超声(CEUS)技术也在临床环境中得到广泛应用[3],它提供了肿瘤血供信息,帮助放射科医生做出更准确的诊断。
随着人工智能(AI)在医疗领域的日益整合,医学成像与AI的结合已成为未来医学进步的关键方向。传统的医学图像分割方法主要包括基于阈值的、基于区域的和基于聚类的算法。然而,深度学习算法在医学图像处理中得到了广泛应用[4]。与传统的机器学习方法相比,深度学习能够更有效地处理复杂的医学图像数据,从而实现更精确的分割和诊断。近年来,已经提出了多种深度学习方法用于超声图像中乳腺病变的自动分割[5]。然而,超声图像中存在的斑点噪声和强烈的阴影伪影,加上乳腺病变的异质分布以及病变与非病变区域之间通常模糊且不规则的边界,使得乳腺病变的自动分割成为一项极具挑战性的任务[6]。在乳腺超声图像中,阻碍准确肿瘤分割的主要因素包括以下两个方面[7]:首先,病变的强度分布与周围组织相似,边界模糊,尤其是在恶性病变中;其次,病变的形态和位置存在显著的变化。
强大的深度学习分割算法在分割精度方面取得了良好的成果,其中U-Net网络[8]在医学分割领域取得了巨大成功。为了进一步提高分割精度,已经开发了多种基于编码器-解码器的架构用于肿瘤分割[9]。通过结合注意力模块[10]、[11]、多尺度特征提取[12]、深度监督[7]和残差学习[13]等技术,网络模型在乳腺肿瘤分割任务中的性能得到了显著提升。然而,从超声图像中获得精确的分割结果仍然面临许多挑战。分割网络设计不仅需要适应不同规模的乳腺肿瘤,还需要增强对病变区域的关注。同时,卷积操作和注意力机制都有其固有的局限性:卷积操作由于其局部感受野的特性,难以捕获全局上下文信息;而注意力机制在全球特征学习过程中可能会丢失局部细节信息。
为了解决上述问题,我们提出了一种用于乳腺超声图像肿瘤分割的新型混合架构。该模型结合了U-Net和Transformer的优点。以U-Net为基础,在编码器和解码器之间嵌入了混合多尺度注意力模块(HMAM)。该模块通过不同尺度的深度卷积操作和超级令牌注意力(STA)机制增强了提取局部细节和全局上下文特征的能力。此外,在跳跃连接中引入了细节增强通道和空间注意力模块(DCSAM),以加强特征提取。通过计算特征图中的像素差异并整合通道和空间注意力机制,细节增强通道和空间注意力模块(DCSAM)进一步改善了特征表示和泛化能力,从而提高了模型对病变边界的分割精度。本研究中的模型特点如下:
•首先,通过利用多尺度特征提取和STA注意力机制,模型可以同时捕获局部细节和全局上下文信息,显著提高了不同大小病变的分割精度。
•其次,设计了一种新的跳跃连接模块来进一步增强特征提取。通过计算特征图中的像素差异并整合通道和空间注意力机制,细节增强通道和空间注意力模块(DCSAM)在捕获具有上下文意识的特征的同时,提高了表示和泛化能力,从而提高了复杂边界的分割精度。
•此外,我们在公开的乳腺超声数据集上与几种最先进的深度学习分割方法进行了对比实验。结果证明了所提出的混合架构在乳腺肿瘤分割任务中的优越性能,验证了其有效性和先进性。
章节片段
基于U-Net的架构
在医学图像分割领域,Almajalid等人[14]首次使用U-Net进行乳腺超声图像分割任务,实验表明基于U-Net的方法在超声图像的乳腺肿瘤分割方面更加稳健和准确。Zhou等人[15]提出了U-Net++,这是一种新的医学图像分割架构,引入了嵌套的跳跃连接以捕获更全面的上下文信息,从而实现更好的分割效果。Yap等人[16]也进行了相关研究
方法
图1展示了我们提出的用于乳腺病变分割的混合U-Net的整体框架。我们的模型(HMU-net)与U-net具有相同的核心架构。不同之处在于我们在编码和解码部分都添加了混合多尺度注意力模块(HMAM),以更好地适应焦点分割,并在跳跃链接部分使用了细节增强通道和空间注意力模块(DCSAM)来提高模型对不同边界的分割精度。HMAM的设计目的是
数据集
我们使用了三个不同规模的公共数据集来评估分割网络的性能。表1描述了这三个常见数据集的样本内容。
第一个数据集BUSI由Al-Dhabyani等人[34]构建。该数据集包含600名年龄在25至75岁之间的女性的超声图像,使用的是Baheya医院的两种超声设备(LOGIQ E9和LOGIQ E9 Agile超声系统)。数据集包含437例良性病例和210例恶性病例
消融实验
为了验证我们提出的网络组件(即DCSAM和HMAM)的有效性,我们在BUSI和BrEaST数据集上进行了消融实验。基线模型是U-Net,它包含四个下采样层和四个上采样层。对于BUSI数据集,实施了四折交叉验证;对于BrEaST数据集,则使用了三折交叉验证。表2和表3展示了结构消融的结果。
首先,引入这些
讨论
在这项研究中,我们设计了一种用于乳腺超声图像中肿瘤分割的新型混合架构。为了评估模型组件和参数的有效性,我们首先进行了消融实验。如表2、表3、表4和表5所示,本研究中的模型结构和参数设计使网络在乳腺肿瘤分割方面取得了更好的性能。
随后,我们进行了对比实验。
结论
为了更好地应对乳腺肿瘤分割的挑战,我们设计了一种新型混合架构,用于乳腺超声图像中的肿瘤分割,其中结合了混合多尺度注意力模块(HMAM)和细节增强通道和空间注意力模块(DCSAM)。HMAM使网络能够关注不同大小的病变,通过多尺度学习增强其对局部和全局特征的学习能力。对于病变边缘的不确定性,引入了DCSAM
CRediT作者贡献声明
冯军:概念化、项目管理、撰写——原始草稿。谢雨欣:方法论、验证、撰写——原始草稿、撰写——审阅与编辑。刘梦然:数据整理。邢伟通:验证。袁明泽:可视化。姚向翔:调查。
利益冲突声明
作者声明他们没有已知的可能会影响本文所述工作的财务利益或个人关系。