通过扩散模型实现终身知识图谱嵌入

《Neural Networks》:Lifelong knowledge graph embedding via diffusion model

【字体: 时间:2026年01月25日 来源:Neural Networks 6.3

编辑推荐:

  终身知识图谱嵌入框架DiffLE通过扩散模型实现嵌入空间稳定,结合对比学习策略平衡新旧知识学习,并采用分布正则化方法防止灾难性遗忘,在七种动态知识图谱数据集上验证有效性。

  
陈德宇|郭彩彩|李启源|顾金光|谢美怡|朱宏
华中科技大学计算机科学与技术学院,武汉,430074,湖北,中国

摘要

终身知识图谱嵌入(KGE)方法旨在在保留旧知识的同时持续学习新知识。这一研究方向因其能够促进知识保留和迁移,并在知识图谱规模不断扩大和灵活性不断提高的情况下降低训练成本而受到广泛关注。然而,不同上下文下的嵌入空间漂移是新事实灾难性遗忘和低效学习的重要原因,现有研究忽略了这一现象。为了解决上述问题,我们提出了一个新颖的终身KGE框架,该框架从统一的角度考虑了新事实的学习和旧知识的保留。我们提出了一种基于扩散的嵌入方法,该方法能够捕捉实体表示的上下文变化并获得可迁移的嵌入。为了处理嵌入空间的漂移并平衡学习效率,我们采用了基于对比学习的重构和生成策略。为了避免灾难性遗忘并保持嵌入分布的稳定性,我们提出了一种有效的分布正则化方法。我们在七个具有不同构建策略和增量速度的基准数据集上进行了广泛实验,实验结果表明我们的框架优于现有的终身KGE方法。

引言

知识图谱(KGs)作为一种广泛使用的数据组织形式,具有三元组(h, r, t)的结构化表示,其中h表示头部实体,r表示关系,t表示尾部实体。由于其能够有效建模实体之间的语义关系,这种表示方式已被广泛应用于各种下游任务中,如问答(Xu等人,2024年)、链接预测(Bordes等人,2013年)和推荐系统(Yang等人,2023b年)。然而,随着应用场景的不断扩展,对KGs动态性的实际需求逐渐增加,频繁的事实更新给传统的知识图谱嵌入(KGE)方法带来了重大挑战。
传统的KGE方法(Bordes, Usunier, García-Durán, Weston, Yakhnenko, 2013; Sun, Deng, Nie, Tang, 2019; Yang, Yih, He, Gao, Deng, 2015)旨在通过将实体和关系映射到低维空间来预测缺失的事实。然而,这些方法主要关注静态的KGs。在KGs通常是动态且不断增长的现实场景中,图1展示了一个随时间向KG中添加新事实的例子。这种设置导致现有方法在训练过程中面临两个主要问题:首先,重新训练模型以适应新知识的成本很高,尤其是在大规模KGs中。计算资源和时间的成本显著增加;其次,微调模型以学习新知识时经常会出现灾难性遗忘,即模型在学习新知识后忘记了旧知识(Rusu等人,2016年)。
终身KGE方法(Cui, Wang, Sun, Liu, Jiang, Han, Hu, 2023; Liu, Ke, Wang, Shang, Gao, Li, Ji, Liu, 2024b; Liu, Ke, Wang, Wang, Gao, Shang, Li, Xu, Ji, Li, 2024c)被提出来解决上述挑战。终身KGE的核心是如何在持续学习新知识的同时有效保留已学知识。现有工作主要从两个方向处理这个问题:一种是通过正则化方法避免灾难性遗忘,例如引入嵌入正则化损失来限制已见实体和关系的更新(Cui等人,2023年);另一种是专注于新事实的有效学习,例如通过分层学习实现新事实的细粒度学习(Liu, Ke, Wang, Shang, Gao, Li, Ji, Liu, 2024b; Liu, Ke, Wang, Wang, Gao, Shang, Li, Xu, Ji, Li, 2024c)。然而,现有工作独立地考虑了这两个方向,缺乏从统一角度设计终身KGE方法。
嵌入空间漂移是现有终身KGE方法性能的一个重要瓶颈。随着KGs的动态更新,实体和关系的嵌入可能会根据不同的上下文在不同的子空间中初始化和优化,从而导致模型对旧知识和新知识的表示发生漂移。一些关于异构客户端之间知识协作的研究(Yao, Pan, Dai, Wan, Ding, Yu, Jin, Xu, Sun, 2024; Zhu, Li, Hu, 2023)已经注意到了这一点,但在终身场景中尚未加以考虑。这不仅降低了模型学习新事实的效率,还可能加剧灾难性遗忘问题。
为了解决上述问题,我们提出了一个新颖的终身KGE框架,旨在在不断演变的KGs中高效学习新知识的同时保留旧知识。我们设计了一种基于扩散的嵌入方法,该方法引入了扩散模型以在不同上下文中获得可迁移的嵌入。通过结合条件去噪网络和传统的KGE评分函数,我们的方法可以为终身场景获得表达力强的嵌入。为了进一步处理嵌入空间的漂移并平衡学习效率,我们采用了基于对比学习的重构和生成策略。这种策略通过限制快照之间嵌入空间的一致性并增强快照内各个时期的嵌入学习来提高学习能力。为了避免灾难性遗忘并保持嵌入分布的稳定性,我们提出了一种有效的分布正则化方法。通过对旧嵌入的分布特征进行正则化,所提出的方法解决了通过学习新事实而重写旧事实的问题。
我们工作的主要贡献总结如下:
  • 我们提出了一个新颖的终身KGE框架,能够在避免灾难性遗忘的同时高效学习新知识。该框架从嵌入空间漂移的角度统一了旧知识的保留和新知识的学习。
  • 我们设计了一种基于扩散的嵌入方法,生成具有优异表达能力和迁移能力的表示。然后,我们设计了一种重构和生成策略来处理嵌入空间漂移并平衡学习效率。最后,提出了一种分布正则化方法来解决灾难性遗忘并保持分布稳定性。
  • 我们在七个终身KGE基准数据集上进行了广泛实验。实验结果表明,我们的框架在不同构建策略和增量速度下均表现出色。
  • 相关工作

    相关工作

    在本节中,我们将从三个方面回顾和分析相关工作:知识图谱嵌入、知识图谱上的终身学习以及扩散模型。

    初步介绍和问题定义

    知识图谱。知识图谱G=(E,R,T由实体E、关系R和三元组T组成。三元组(h,r,t)T表示KG中的一个事实,其中h,t∈E分别表示头部和尾部实体,rR表示连接头部和尾部实体的关系。
    增长型知识图谱。增长型知识图谱通过序列号i=1,2,...,...,...,...,...,...t表示为快照G={G1,...,...,...,...,...t。每个KG快照Gi都有其对应的实体、关系和三元组集合(Ei,...Ri,...,...,...t。增长过程

    方法论

    为了解决上述问题,我们提出了一个基于扩散的终身KGE框架,简称DiffLE。首先,我们设计了一个具有稳定嵌入空间和上下文泛化能力的KGE模型,该模型结合了基于扩散的嵌入和基本的KGE方法。然后,在嵌入方法的训练过程中,我们提出了一种基于对比学习的重构和生成策略。这种学习策略进一步解决了嵌入空间的漂移问题并实现了平衡

    实验

    在本节中,我们进行实验以评估和回答以下问题:
  • 我们的DiffLE与各种基线方法在不同增量策略下的表现如何?
  • 在我们的DiffLE在更宽松的约束和不同的增量速度下的表现如何?
  • 我们提出的DiffLE的每个模块是否有效?
  • 我们的DiffLE在处理嵌入空间漂移方面的表现如何?
  • 我们的DiffLE在避免
  • 不确定性建模方法和基于扩散的嵌入

    一些工作将不确定性建模引入表示学习,主要通过基于变分推理和基于dropout的方法。虽然基于变分推理的方法(Cowen-Rivers, Minervini, Rockt?schel, Bosnjak, Riedel, Wang, 2019; Kingma, Welling, 2014; Kipf, Welling, 2016)通过从潜在分布中采样嵌入提供了一种简单的机制,但它们的表达能力在实践中容易退化为单峰近似。在KGE的背景下,实体和

    结论

    在本文中,我们提出了一个新颖的终身KGE框架DiffLE,该框架将扩散模型应用于KGs的终身学习任务。我们从嵌入空间漂移的统一角度考虑了灾难性遗忘问题和新事实的有效学习。该框架将事实编码为基于扩散的嵌入,然后通过基于对比学习的策略和分布正则化方法适应终身学习场景。最后,我们

    CRediT作者贡献声明

    陈德宇:撰写——审稿与编辑,撰写——初稿,可视化,方法论,概念化。郭彩彩:撰写——审稿与编辑,撰写——初稿,概念化。李启源:撰写——审稿与编辑,方法论。顾金光:撰写——审稿与编辑,概念化。谢美怡:撰写——审稿与编辑。朱宏:撰写——审稿与编辑,监督,项目管理,资金获取。

    利益冲突声明

    作者声明他们没有已知的可能会影响本文所述工作的财务利益或个人关系。

    致谢

    本工作得到了武汉市科学技术局重大科技项目(项目编号2022013702025185)的支持。
    相关新闻
    生物通微信公众号
    微信
    新浪微博
    • 搜索
    • 国际
    • 国内
    • 人物
    • 产业
    • 热点
    • 科普

    知名企业招聘

    热点排行

      今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

      版权所有 生物通

      Copyright© eBiotrade.com, All Rights Reserved

      联系信箱:

      粤ICP备09063491号