《Neuroscience Informatics》:From epilepsy seizure Classification to Detection: A deep learning-based approach for raw EEG signals
编辑推荐:
本研究针对癫痫发作自动检测模型泛化能力差及临床前-临床转化难的问题,开发了一种基于CNN+Transformer的深度学习框架。通过区分分类与检测任务、设计无先验分割的预处理流程,模型在小鼠脑电图数据训练后,于人类数据上实现93%的F1分数,显著提升跨物种泛化能力,为癫痫精准诊断提供新范式。
癫痫作为全球最常见的神经系统疾病之一,影响着超过5000万患者的生活质量。尽管医学界对癫痫的认知已有数百年历史,但临床医生至今仍缺乏可靠的自动化工具来精准识别脑电图(EEG)中的癫痫发作信号。当前研究虽已开发出多种基于机器学习的自动检测系统,并在特定数据集上表现出高达98%的准确率,但这些模型在面对新患者数据时往往泛化能力骤降,导致临床实践中仍高度依赖耗时耗力的人工标注。更严峻的是,在药物研发的临床前阶段,从动物模型获得的研究结果难以直接转化到人类临床应用,这成为癫痫研究领域长期存在的瓶颈。
发表于《Neuroscience Informatics》的这项研究,直面上述两大挑战。研究团队首次系统分析了自动检测模型泛化能力不足的根源:大多数现有技术仅在“发作分类”任务上进行测试,即预设了发作与非发作片段的先验分割,而临床实际需要的是从连续脑电图流中识别发作事件的“发作检测”任务。两者核心区别在于,检测任务需在没有先验知识的情况下定位发作起止时间,这对模型提出了更高要求。此外,研究通过构建新型深度学习架构,成功实现了从动物模型到人类数据的知识迁移,为跨物种转化研究提供了新思路。
关键技术方法包括:使用10只研究中的136只MTLE小鼠的1440小时脑电图数据(数据集1)和波恩大学公开人类数据集(数据集2);设计两种预处理流程(含/不含先验活动分割的Pre-processing I/II)以区分分类与检测任务;开发CNN+Transformer混合架构,结合双路径卷积核(尺寸3和10)与旋转位置编码;采用事件级评估策略(Evaluation II),通过后处理算法重构连续信号并计算F1分数。
3.1. 数据集1:癫痫分类任务的模型比较
研究发现,在分类任务中,6层CNN模型以仅2.3万参数实现0.818的F1分数,而CNN+Transformer架构将性能提升至0.868(15.8万参数),证明注意力机制在捕捉脑电图时间依赖性方面优于传统循环神经网络。
3.2. 癫痫分类与检测任务的性能对比
当转向更贴近临床的检测任务时,所有模型性能均下降。CNN+Transformer在4秒窗口、0.5秒步长设置下取得最佳F1分数(0.565),显著高于CNN-6模型的0.182,表明Transformer架构对发作边界定位具有更强鲁棒性。
3.3. 从小鼠到人类的跨物种泛化测试
在波恩数据集上,CNN+Transformer在三个子集上均保持稳定性能(F1分数0.852–0.935),而CNN-6在非平衡数据上出现大量假阳性(F1分数仅0.627–0.638),验证了注意力机制对跨物种泛化的关键作用。
讨论部分指出,本研究通过严格避免数据泄漏(按受试者划分数据集)、区分分类与检测任务评估策略,解决了既往研究结果高估问题。提出的无先验分割预处理流程(Pre-processing II)和事件级后处理算法,更真实地模拟了临床场景。值得注意的是,模型在未经微调的情况下,直接将从小鼠数据学习的特征迁移至人类脑电图,并达到商用系统水平的性能,证实了癫痫生物标志物的跨物种保守性。
结论强调,该研究不仅提供了首个经动物-人类双验证的癫痫发作检测管道,更重新定义了癫痫自动检测的评估范式。CNN+Transformer架构在资源受限(单通道脑电图)场景下的优异表现,为便携式癫痫监测设备开发奠定基础。未来工作将扩展至更多癫痫类型验证,并探索模型可解释性,以揭示跨物种共享的神经电生理特征。