一种基于语义演化图和掩码自动编码器的鲁棒且可泛化的谣言检测方法
《Pattern Recognition》:Robust and Generalizable Rumor Detection with Semantic Evolving Graph Masked Autoencoder
【字体:
大
中
小
】
时间:2026年01月04日
来源:Pattern Recognition 7.6
编辑推荐:
语义演变增强的图掩码自编码器模型SEE-GraphMAE通过双向语义重建和全局语义学习模块捕捉谣言传播中的语义动态变化,结合测试时训练与子图正则化策略提升跨领域泛化能力,实验表明其显著优于现有方法。
谣言检测领域正面临语义演变与传播结构双重挑战。传统模型多聚焦于静态文本特征或单一传播路径分析,难以有效捕捉动态语义变化与复杂拓扑关系。本文提出的SEE-GraphMAE模型创新性地将语义演变建模与图神经网络技术深度融合,通过构建自监督式语义演化学习框架,显著提升了谣言检测的早期识别能力和跨域泛化性能。
在技术架构层面,模型采用双向语义重建机制:首先通过上下文传播路径的交替训练,在信息流动方向(如推文-评论层级)建立双向特征关联。这种设计不仅强化了局部语义关联的捕捉能力,同时通过跨层信息交互实现了全局语义特征的整合。实验表明,该机制在早期阶段即可发现语义异常信号,有效解决了传统模型因数据稀疏性导致的误检问题。
针对数据分布偏移的难题,研究团队提出动态自适应训练策略。通过引入测试时微调机制,模型能根据实时传播数据动态调整特征表达,同时采用子图注意力约束技术确保核心传播路径的稳定性。这种训练策略在保持模型泛化能力的前提下,使检测响应速度提升约40%,显著优于依赖固定特征空间的同类方法。
在语义演变建模方面,创新性地将局部语义突变检测与全局传播模式识别相结合。通过构建三层语义特征提取网络,分别捕捉节点级、边级(信息交互路径)和拓扑级(传播结构)的语义演化特征。这种分层处理机制能有效区分正常讨论与谣言传播的特征差异,在Twitter15和Twitter16数据集上,将早期检测准确率从78.2%提升至92.4%。
模型性能优势主要体现在三个方面:首先,在PHEME九事件测试中,跨事件泛化准确率达到89.7%,较基线模型提升15.2个百分点;其次,通过语义演化特征的可视化分析,发现谣言传播存在典型语义退化曲线,检测阈值可动态调整;最后,在突发新闻场景下,模型通过实时语义特征更新,使误报率控制在3%以下,远优于传统固定模型。
研究团队特别强调其提出的双路径语义校验机制。该机制在训练阶段同步优化局部语义关联(如推文与子评论)和全局传播模式(如跨层级信息流动),在测试阶段则通过选择性注意力机制强化关键路径的特征表达。这种动态平衡机制有效避免了模型在复杂传播场景中的过拟合问题,使F1-score在跨数据集迁移测试中保持稳定。
实验数据表明,该模型在早期检测阶段(传播前5轮)即能准确识别83%的谣言样本,较现有最佳模型提前2.3个时间节点。在分布偏移测试中,通过引入领域自适应的语义演化约束,模型在异构数据集上的AUC值达到0.91,较传统迁移学习方法提升27%。这些突破性进展源于对语义演化过程的深度建模,以及训练-测试场景的智能衔接机制。
值得关注的是,研究团队通过构建多维度评估体系,不仅测试了模型的整体检测性能,还重点考察了特征可解释性。可视化分析显示,谣言传播过程中存在明显的语义熵值上升曲线,而正常讨论则呈现稳定波动特征。这种差异为模型的决策依据提供了理论支撑,使检测过程具备更强的逻辑自洽性。
在工程实现层面,团队设计了轻量化自监督训练框架。通过预训练阶段自动生成语义演化掩码,在推理阶段仅需简单调整注意力权重即可实现动态特征提取。这种设计在保持模型可扩展性的同时,将计算资源消耗降低至原有模型的1/3,特别适用于移动端实时检测场景。
未来研究计划将重点拓展模型的应用边界:一方面探索动态图结构下的实时语义追踪技术,构建更具弹性的传播网络建模框架;另一方面计划整合多模态数据源(如图像、地理位置信息),进一步提升复杂场景下的检测鲁棒性。这些延伸方向不仅完善了现有技术体系,更为社交媒体安全治理提供了新的技术路径。
该研究对谣言检测领域具有三重启示价值:其一,证实了语义演化特征在早期检测中的关键作用;其二,开创了测试时训练与子图正则化的协同优化范式;其三,为应对快速变化的网络生态提供了可扩展的技术框架。这些创新成果为构建智能化的网络空间治理体系奠定了重要基础,对维护社交媒体生态健康具有现实意义。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号