PNET-PRISM:一种多中心验证的影像组学列线图用于胰腺神经内分泌肿瘤的无创分级

《Insights into Imaging》:PNET-PRISM: a multicenter-validated radiomics nomogram for noninvasive grading of pancreatic neuroendocrine tumors

【字体: 时间:2026年03月25日 来源:Insights into Imaging 4.5

编辑推荐:

  为解决内镜超声引导下细针穿刺活检(EUS-FNA)获取组织不足、有创及诊断不确定性高的问题,研究人员开展了针对胰腺神经内分泌肿瘤(PNETs)术前无创分级的CT影像组学研究。他们开发并验证了一种集成多维特征(包括瘤内、瘤周、生境及深度学习特征)的胰腺神经内分泌肿瘤影像组学综合评分模型(PNET-PRISM)。该模型在包含407名患者的多中心队列中表现优异(AUC 0.87-0.92,外部敏感性100%),可有效弥补EUS-FNA的不足,并能预测无进展生存期(HR=2.050),为PNET的风险分层和治疗选择提供了强大的无创决策支持工具。

  
胰腺,这个深藏于腹腔深处、掌管着我们消化与血糖平衡的关键器官,也可能滋生一类特殊的肿瘤——胰腺神经内分泌肿瘤(Pancreatic Neuroendocrine Tumors, PNETs)。与凶名在外的胰腺癌不同,PNETs相对“温和”,但它们的“性格”却千差万别,从懒散安静的“好人”(低级别,G1)到充满攻击性的“坏分子”(高级别,G2/G3)皆有。如何准确判断一个PNET的“性格”(病理分级),是摆在医生面前的一道关键选择题:是“静观其变”定期随访,还是“主动出击”进行手术?这道题目的答案,直接关系到患者的生存期和治疗选择,可谓生死攸关。
然而,获取答案的标准“开卷”方式——内镜超声引导下细针穿刺活检(Endoscopic Ultrasound-guided Fine Needle Aspiration, EUS-FNA)——却常常“卡壳”。这项操作不仅是有创的,存在一定风险,更令人头疼的是,高达40%的病例会因取样组织不足、坏死或取样偏差而无法获得明确诊断。标准方法失灵,患者和医生便陷入了“诊断不确定”的困境。与此同时,常规的CT检查虽然能清晰显示肿瘤的“外貌”(大小、位置),却难以窥见其内在的“性格”。过去,一些研究试图通过分析CT图像的定量特征(影像组学)来“读心”,但往往局限于单中心、小样本,或只分析肿瘤内部简单的纹理,忽略了肿瘤周围环境的“生态”信息,导致模型的可信度和普适性不足,难以走进临床。
为了破解这一困局,研究人员开展了一项雄心勃勃的多中心研究。他们提出,能否不依赖有创穿刺,仅通过患者术前常规做的CT扫描,就开发出一个足够聪明、足够可靠的“虚拟活检”工具,来精准预测PNET的分级?这项研究的目标,就是打造一个能填补EUS-FNA诊断空白、真正指导临床决策的无创利器。
这项研究成果最终以“PNET-PRISM: a multicenter-validated radiomics nomogram for noninvasive grading of pancreatic neuroendocrine tumors”为题,发表在《Insights into Imaging》杂志上。它为PNET的精准诊疗提供了一项强有力的新工具。
为了开展这项研究,研究人员综合运用了多项关键技术。在数据层面,他们构建了一个多中心回顾性队列,共纳入了来自两家医院的407名经手术病理证实的PNET患者,并按时间顺序和医院来源划分为训练集(244人)、验证集(106人)和独立外部测试集(57人)。在技术方法层面,其核心是一个先进的多维影像组学分析流程:首先,使用基于深度学习的自动化分割工具(nnMamba)对CT图像上的肿瘤进行精确勾画,并结合专家手动校正以确保质量。接着,从分割出的肿瘤区域提取了超过13,000个多维特征,这些特征覆盖了五大领域:1)定量形态学特征(如CT值、体积);2)结合3D上下文的2.5D深度学习特征;3)瘤内及瘤周(2毫米、5毫米区域)的影像组学特征;4)基于熵和强度将肿瘤分区后提取的生境特征;5)完整的3D影像组学特征。然后,通过一个严格的层级式特征筛选策略(包括单变量筛选、冗余性剔除、递归消除和LASSO回归),从上万特征中最终精选出11个最具预测力的特征,构建了“多维深度学习影像组学评分”(Multidimensional Deep Learning Radiomics Score, M-DLR Score)。最后,研究人员将M-DLR Score与临床影像特征(如肿瘤直径、肿瘤负荷评分、主胰管/胆管扩张)相结合,构建了最终的预测模型——胰腺神经内分泌肿瘤影像组学综合评分模型(Pancreatic Radiomics Integrated Scoring Model for PNET, PNET-PRISM),并以列线图形式呈现,便于临床使用。统计分析方法包括受试者工作特征曲线、校准曲线、决策曲线分析、净重分类改善指数以及生存分析等,以全面评估模型性能。
研究结果部分清晰地展示了从模型构建到验证的全过程及其卓越表现:
  • 患者特征:共407名患者,包括167名G1和240名G2/G3患者。分析显示,G2/G3组患者在肿瘤大小、肿瘤负荷评分(Tumor Burden Score, TBS)及TNM分期等方面通常更具侵袭性。
  • M-DLR评分的构建与验证:从海量特征中筛选出的11个特征构成了M-DLR评分。该评分在训练、验证和测试集中均能极好地区分G1与G2/G3肿瘤(p< 0.0001)。其单独用于分级的诊断性能就非常突出,曲线下面积(Area Under the Curve, AUC)分别为0.91、0.88和0.84。
  • M-DLR评分与无进展生存期的关联:M-DLR评分还具有显著的预后价值。根据最佳截断值(0.259)将患者分为低风险和高风险组后,Kaplan-Meier分析显示,低风险组患者的无进展生存期(Progression-Free Survival, PFS)显著长于高风险组(风险比[Hazard Ratio, HR] = 2.050, 95% CI: 1.484–2.833, p< 0.001)。
  • 预测模型的性能
    • 临床模型:仅使用临床影像特征(肿瘤大小、TBS、导管扩张等)构建的模型性能一般,AUC在0.71-0.80之间。
    • PNET-PRISM模型:整合了M-DLR评分和临床特征的PNET-PRISM模型表现出色,在训练、验证和外部测试集中的AUC分别高达0.92、0.89和0.87,显著优于单纯的临床模型。校准曲线显示模型预测概率与实际结果吻合良好。其决策曲线分析表明,在广泛的阈值概率范围内,使用该模型能获得更高的临床净收益。
  • 模型比较与临床效用:PNET-PRISM在40例与EUS-FNA的直接比较中展现了重要价值。在25例EUS-FNA无法诊断(主要因细胞量不足、坏死或取样误差)的患者中,PNET-PRISM为其中13例(52%)提供了准确分级。在外部测试集中,模型达到了100%的灵敏度,确保了高级别肿瘤不被漏诊。
  • 误分类病例分析:对模型判断错误的病例(约17.9%)进行分析发现,假阳性(G1误判为G2/G3)多与肿瘤体积较大或伴囊性变有关;假阴性(G2/G3误判为G1)则多见于体积较小、缺乏侵袭性影像特征的肿瘤。这一分析为理解模型局限性和指导临床决策提供了依据。
研究结论与讨论部分对上述发现进行了总结和升华,强调了本研究的创新与意义。研究团队成功开发并多中心验证了PNET-PRISM这一影像组学列线图。该模型通过四大关键创新解决了以往研究的缺陷:全自动深度学习分割保障可重复性;系统分析瘤周微环境捕获肿瘤-宿主相互作用;瘤内生境分析量化肿瘤内部异质性;集成深度学习特征捕捉复杂语义模式。这使得PNET-PRISM不仅是一个高精度的诊断工具(AUC最高达0.92),其核心M-DLR评分更是一个独立的预后生物标志物,能有效预测患者PFS。
研究的核心临床价值在于,PNET-PRISM充当了可靠的“虚拟活检”,特别是在EUS-FNA诊断失败或存在禁忌时,能提供关键决策信息,其完美的外部测试灵敏度(100%)设计偏向于患者安全,确保高危患者不被遗漏。更重要的是,研究通过对误判病例的分析,揭示了PNET生物学复杂性(如大而惰性的G1与小而侵袭的G2/G3),并据此提出了一个整合模型预测、肿瘤大小和囊性特征的风险分层临床决策框架,为个体化治疗提供了清晰路径。
研究也客观指出了局限性,如回顾性设计、队列均来自手术患者、将G2/G3合并分析可能掩盖G3独特生物学特性等。未来研究方向包括在前瞻性尤其非手术人群中验证、开发专门区分G3的模型、以及探索与循环肿瘤DNA等多组学数据整合。
总之,这项研究证明,常规CT图像中蕴藏着丰富的、可被多维人工智能框架解译的生物学与预后信息。PNET-PRISM作为一个经过严格验证的工具,有望改变PNET临床管理范式,在标准方法失效之处提供强有力的无创决策支持,优化治疗路径,最终改善患者预后。研究团队已公开模型和代码,以促进其临床转化和应用。
相关新闻
生物通微信公众号
微信
新浪微博

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号