一种用于方面提取和情感分类的双向增强对比学习网络

【字体: 时间:2026年02月12日 来源:Expert Systems with Applications 7.5

编辑推荐:

  AESC任务通过双向增强对比学习框架BiAESC解决 sentiment noise问题,利用A2O和O2A模块实现语义关联的细粒度建模,结合DCL模块和依赖图结构提升分类准确率,实验表明其优于基线模型。

  
王邹|孙霞|张浩|吴浩|邢亚琼
中国西安西北大学计算机科学学院,710127

摘要

方面提取与情感分类(AESC)旨在从句子中执行方面术语提取(ATE)和方面情感分类(ASC)。最近的研究采用了交互网络和局部上下文聚焦方法来减轻句子中多种情感极性引起的情感噪声。然而,上述方法缺乏方面术语和观点术语之间的细粒度建模,并且忽略了它们之间的语义关联和相互增强。为了解决这些问题,我们提出了一个双向增强对比学习框架(BiAESC)。具体来说,我们设计了方面到观点增强(A2O)模块和观点到方面增强(O2A)模块,以利用语义关联来双向增强方面术语和观点术语的表示。此外,我们还构建了依赖对比学习(DCL)模块,该模块利用依赖图结构和对比学习来实现方面术语和观点术语之间的细粒度建模,从而减轻情感噪声的影响。在三个基准数据集上的实验结果表明,BiAESC的性能显著优于基线模型,并表现出更好的鲁棒性。

引言

随着互联网信息技术的快速发展,Twitter、Facebook和Amazon等在线平台每天都会产生大量用户评论。这些评论包含有价值的信息,例如公众对政治家的态度、粉丝对名人的喜爱程度以及消费者对产品体验的反馈。如何有效利用和管理这些评论引起了研究人员的广泛关注。基于方面的 sentiment 分析(ABSA)(Do, Prasad, Maag, & Alsadoon (2019); Zhang, Li, Deng, Bing, & Lam (2022); Zou et al. (2025c))可以有效地提取句子中的情感元素:方面术语、观点术语和情感极性。方面提取与情感分类(AESC)(Mao, Shen, Yu, & Cai (2021); Vacareanu et al. (2024); Negi, Sarkar, Zayed, & Buitelaar (2024))是 ABSA 中的一个代表性复合任务,其目标是同时完成方面术语提取(ATE)(Li, Chen, Quan, Ling, & Song (2020); Zou et al. (2025d))和方面情感分类(ASC)(Tang, Qin, & Liu (2016); Zou, Sun, Lu, Wang, & Feng (2025b))。如图 1 所示,给定句子“食物很棒,但价格很高”,AESC 任务的目标是从句子中提取方面-情感对,得到(“食物”,“积极”)和(“价格”,“消极”)。ATE 子任务是提取方面术语“食物”和“价格”。ASC 子任务旨在确定与每个方面术语相对应观点术语所表达的情感极性,例如为“食物”识别情感(“很棒”,“积极”),为“价格”识别情感(“很高”,“消极”)。
AESC 任务同时涉及提取和分类,因此相对具有挑战性。以往的研究采用了管道框架(Zhang, Zhang, & Vo (2015); Li, Bing, Li, & Lam (2019); Luo, Li, Liu, & Zhang (2019)),将 AESC 任务分为两个阶段,但这会导致错误传播。最近,主流方法采用了端到端框架(Mitchell, Aguilar, Wilson, & Durme (2013); Peng et al. (2020)),利用共享网络(Ma et al. (2018) 和多任务学习(Mao & Li (2021); Zou, Zhang, Wu, & Tian (2024))来完成子任务。句子中存在多种情感极性会引入情感噪声,这对 AESC 任务构成了挑战。为了解决这个问题,一些研究提出了交互网络(Chen, Du, Zhang, Zhuang, & He (2022b); Chen, Liu, Zhang, Zhuang, & Zhong (2024); Chen, Lin, Zhang, Du, & He (2022c))以实现方面术语和上下文之间的交互学习,而其他研究则引入了局部上下文聚焦方法(Chen, Zhang, Yuan, Xu, & Zhuang (2025); Lv et al. (2021); Phan & Ogunbona (2020))来捕获方面的局部情感信息。
尽管上述方法在 AESC 任务上取得了显著的性能,但它们忽略了一些重要因素。(i) 当前方法在粗粒度层面解决了情感噪声问题,但缺乏对方面-观点对的细粒度关注。 当前的交互网络和局部上下文聚焦方法旨在捕捉围绕方面术语的上下文的情感极性,实现了粗粒度建模。然而,由于句子结构和单词之间的距离,局部信息仍可能受到情感噪声的影响。如图 1 所示,方面术语“价格”的局部上下文包含两个观点术语“很棒”和“很高”,其中“很棒”引入了“积极”的情感噪声。为了解决这个问题,需要在方面术语“价格很高nsubj”关系在“价格很高(ii) 当前的研究忽略了方面术语和观点术语之间的语义关联和相互增强。 如图 1 所示,当前方法主要关注方面引导的观点情感检测,同时忽略了方面术语和观点术语之间的语义关联以及观点术语增强方面术语表示的潜力。例如,观点术语“很高价格美味食物友好服务态度
为了解决上述问题,我们提出了一个用于 AESC 任务的双向增强对比学习网络(BiAESC1)。该方法旨在利用语义关联来增强方面术语和观点术语的表示,同时使用依赖图和对比学习来实现方面术语及其对应观点术语的细粒度建模。具体来说,我们首先使用预训练的 BERT(Devlin, Chang, Lee, & Toutanova (2019))模型来计算上下文表示。然后,我们构建了方面到观点增强(A2O)模块,使用方面术语的语义来增强观点术语的表示。此外,我们设计了观点到方面增强(O2A)模块,使用观点术语的语义来增强方面术语的表示。最后,我们采用依赖对比学习(DCL)模块来实现方面术语和观点术语的细粒度建模。此外,我们还采用了表格填充方法(Wu et al. (2020); Chen, Zhai, Feng, Li, & Wang (2022a))来实现方面-情感对的统一解码。
本文的贡献如下:
(1) 我们提出了一个双向增强对比学习模型(BiAESC)来解决 AESC 任务中的情感噪声问题。此外,该框架有效地处理了 ATE 和 ASC 子任务。
(2) 我们设计了方面到观点增强(A2O)模块和观点到方面增强(O2A)模块,以利用语义关联来双向增强方面术语和观点术语的表示。
(3) 我们提出了依赖对比学习(DCL)模块来实现方面术语和观点术语的细粒度建模,从而捕获方面和情感之间的依赖性。
(4) 在 Laptop、Restaurant 和 Twitter 基准数据集上的实验结果表明,BiAESC 模型的整体性能显著优于基线方法,显示出强大的泛化能力和鲁棒性。
本文的其余部分组织如下:第 2 节介绍了相关工作。第 3 节详细解释了任务构建和 BiAESC 框架的组成部分。第 4 节展示了框架的主要结果和性能分析。最后,第 5 节总结了本文的贡献并讨论了未来的工作。

章节片段

方面提取与情感分类

方面提取与情感分类(AESC)任务需要提取方面术语并确定它们的情感极性。早期的研究将方面提取和情感分析视为独立任务,并采用两阶段管道方法依次执行这些任务,例如 CRF-Pipeline(Mitchell et al. (2013))和 Peng 的两阶段方法(Peng et al. (2020))。然而,管道框架容易传播错误,其中不正确的方面提取会直接影响...

方法论

在本节中,我们详细介绍了 BiAESC 框架的总体架构,如图 2 所示。

数据集

我们在三个公开可用的基准数据集上进行实验:Laptop、Restaurant 和 Tweets。Laptop 和 Restaurant 数据集(4)来自 SemEval-2014 Task 4 挑战(Pontiki, Galanis, & Papageorgiou (2016))。Twitter 数据集(5)(Dong et al. (2014))包含在线评论,用于评估非正式文本的性能。三个数据集的详细统计信息显示在表 2 中。

实现细节

我们采用了 BERT-base6

结论

在本文中,我们提出了一个双向增强对比学习(BiAESC)框架来解决情感噪声问题。具体来说,我们设计了 A2O 和 O2A 模块来建模句子中方面术语和观点术语之间的关联,利用语义知识来增强它们的表示。此外,我们还构建了 DCL 模块,该模块利用句法依赖图结构和对比学习策略来实现细粒度...

CRediT 作者贡献声明

王邹:概念化、方法论、写作。孙霞:方法论、资金获取、审稿和编辑。张浩:审稿。吴浩:审稿。邢亚琼:审稿和编辑。

利益冲突声明

所有作者均声明没有利益冲突。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号