利用深度学习对卵巢癌的组织学类型进行分类

《European Journal of Obstetrics & Gynecology and Reproductive Biology》:Classification of histological types in ovarian cancer using deep learning

【字体: 时间:2026年03月20日 来源:European Journal of Obstetrics & Gynecology and Reproductive Biology 1.9

编辑推荐:

  卵巢癌组织学类型AI诊断模型开发及验证。采用YOLOv8构建物体检测与图像分类模型,训练集含2438张恶性样本和400张正常样本图像。测试集显示检测模型敏感性66.8%,分类模型准确率79.2%。存在5例正常样本误诊。结论指出AI诊断需结合三维成像提高准确性。

  
Kenta Fukuda | Nanako Sakabe | Shouichi Sato | Toshiaki Hara | Harumi Kobayashi | Masato Nakaguro | Kennosuke Karube | Katsuhide Ikeda
日本爱知县名古屋市名古屋大学医学院综合健康科学系病理生理学科学

摘要

背景

癌的病理类型分类对于了解其不同的进展、预后和治疗效果至关重要。透明细胞癌和黏液癌在早期阶段的预后较好,但由于对化疗的抵抗性,在晚期阶段的预后较差。本研究旨在开发一种人工智能(AI)模型来对卵巢癌的病理类型进行分类。

方法

我们使用YOLOv8目标检测(OD)和图像分类算法开发了一个深度学习模型。该模型使用了71例恶性肿瘤病例的数据,分别包含2,438张和5,874张图像。此外,还使用了10例恶性肿瘤阴性(NFM)病例的数据来训练模型。OD模型的测试数据集包含37例病例,共957张图像;分类模型的测试数据集包含37例病例,共1,545张图像。NFM测试数据集包含10例病例,每例包含200张图像。

结果

OD模型的测试数据显示,精确度(Precision)为0.502,召回率(Recall)为0.482,F1分数为0.492。该模型的敏感性(Sensitivity)为66.8%。分类模型的测试数据显示,敏感性为53.0%,特异性(Specificity)为86.5%,准确率(Accuracy)为79.2%。在200张NFM图像中,有5张图像被错误地检测为恶性肿瘤。

结论

使用AI准确诊断卵巢癌具有挑战性,因为一种病理类型可能与另一种相似。尽管人类可以通过形态学特征进行分类,但AI在这一点上仍存在困难。需要进一步的研究来开发基于三维成像的高精度AI模型。

引言

卵巢癌在全球女性中的发病率和死亡率排名第八,每年约有324,398例新病例和206,839例死亡病例[1]。该疾病的发病率在欧洲最高,且在某些国家的病例数量正在增加[2][3]。卵巢癌的死亡率在所有妇科癌症中最高[4][5],五年生存率为45.6%[4]。由于大多数卵巢癌在早期没有症状且具有侵袭性,因此早期发现率仅为20%,大多数病例在晚期才被诊断出来[4][6][7]。最常见的病理类型是上皮肿瘤,包括浆液癌、透明细胞癌、子宫内膜样癌和黏液癌,占报告病例的90%[8]。浆液癌是最常见的卵巢上皮癌类型[4]。在西方国家,子宫内膜样癌或黏液癌是第二常见的类型,而在亚洲则透明细胞癌更为常见[3][9]。不同地区之间病理类型的分布存在差异[3]。高级别浆液癌(最常见的浆液癌类型[10])的特点是诊断时已处于晚期,进展迅速且易于扩散[11]。尽管初始化疗有效,但高级别浆液癌患者的复发率很高[12]。许多子宫内膜样癌在早期就被发现,且其恶性程度较低[5]。透明细胞癌和黏液癌在早期发现时预后较好;然而,在晚期由于对化疗的抵抗性,预后较差[13][14][15]。从病理学和细胞学的角度来看,确定病理类型非常重要,因为这些类型在进展、预后和治疗效果方面存在差异。 最近,人工智能(AI)在细胞学研究中的应用越来越多地采用了深度学习技术。深度学习在图像和语音识别方面表现出色,因为它能够分析高维数据的结构[16]。在深度学习中,卷积神经网络(CNN)在图像识别方面表现优异,能够利用大量数据自动提取和学习图像特征[17]。存在多种深度学习算法。目标检测(OD)算法(如YOLO、R-CNN和Faster R-CNN)用于识别图像中的对象位置并预测其类别[18]。分割算法(如U-Net和Mask R-CNN)可以在像素级别识别对象和区域[18]。视觉几何组(VGG)和AlexNet等算法用于预测输入图像的类别[18]。多种算法和任务已被应用于临床样本研究,以实现AI在细胞学中的实际应用[18]。在妇科领域,Kanavati等人使用EfficientNetB0和循环神经网络开发了一个二分类模型,用于区分无上皮内病变/恶性肿瘤的样本,该模型的接收者操作特征曲线下面积(AUC)为0.89–0.96[19]。Xu等人开发了一个模型,用于分类宫颈细胞学中的8种细胞类型,最低和最高类别的准确率分别为91.4%和97.5%[20]。基于AI的宫颈细胞学研究已经展开,并证明了其有效性[18][19]。在本研究中,我们开发了目标检测和图像分类模型,并使用YOLOv8验证了它们在区分卵巢癌病理类型方面的准确性。

材料与方法

本研究获得了名古屋大学医院机构伦理委员会的批准(批准编号2023–0096,2023年6月6日)。研究使用了2012年至2024年间在名古屋大学医院收集的积液细胞学样本中显示恶性肿瘤细胞的样本。通过手术活检或原发部位切除获得的样本进行了病理检查,确定了病理类型(卵巢癌82例;子宫内膜癌26例)。

OD模型的准确性

OD模型的精确度(Precision)为0.502,召回率(Recall)为0.482,F1分数为0.492。测试集的混淆矩阵见表2。对于浆液癌,敏感性(Sensitivity,与召回率含义相同)为66.8%;透明细胞癌为65.4%;子宫内膜样癌为48.9%;黏液癌为11.5%。正确和错误分类的细胞学图像分别显示在图1和图2中。

讨论

在三种类型的卵巢肿瘤(上皮肿瘤、性索间质肿瘤和生殖细胞肿瘤)中,上皮肿瘤占所有卵巢肿瘤的90%,包括浆液癌、透明细胞癌、子宫内膜样癌和黏液癌等病理类型。病理类型是根据显微镜下的形态学特征进行诊断的。当病理类型难以诊断时,会使用免疫组化(IHC)技术。已经通过IHC鉴定出多种标志物。

作者贡献声明

Kenta Fukuda:撰写初稿、方法论设计、数据分析。 Nanako Sakabe:撰写、审稿与编辑、资金筹集。 Shouichi Sato:撰写、审稿与编辑、软件开发。 Toshiaki Hara:撰写、审稿与编辑。 Harumi Kobayashi:撰写、审稿与编辑。 Masato Nakaguro:撰写、审稿与编辑。 Kennosuke Karube:撰写、审稿与编辑。 Katsuhide Ikeda:撰写、审稿与编辑、监督工作、软件开发、方法论设计、资金筹集、整体协调。

利益冲突声明

作者声明没有已知的财务利益或个人关系可能影响本文的研究结果。

致谢

本研究得到了日本学术振兴会(KAKENHI)的资助(资助编号JP21K18077和JP24K21140)。感谢Editage(www.editage.jp)在英语编辑方面的帮助。

资金来源的作用

资助方未参与本研究的设计、数据收集、数据分析和报告过程。

数据可用性

出于隐私考虑,这些数据不对外公开。除训练数据、测试数据和模型外,所有数据均不可公开获取。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号