《Neural Networks》:Multi-view graph clustering via dual attention fusion and collaborative optimization
编辑推荐:
多视图图聚类通过双注意力融合与协同优化提升共识表示与语义一致性,解决异构视图结构互补与全局一致性问题。
作者:Zuowei Wang、Sen Xu、Naixuan Guo、Xuesheng Bian、Xiufang Xu、Shanliang Yao、Xianye Ben、Tian Zhou
中国江苏省盐城市盐城工业大学信息工程学院,Hope Avenue Middle Road 1号,224051
摘要
多视图图聚类是数据挖掘和机器学习中的一个基本任务,其目标是通过利用来自多个数据源的互补信息将节点划分为不相交的组。尽管已经取得了显著进展,但现有方法往往难以有效捕捉每个视图中的独特结构信息以及不同视图之间的互补关系。此外,缺乏强制全局语义一致性的机制,经常导致共识表示不稳定和聚类质量下降。为了解决这些问题,我们提出了一种新的端到端方法——基于双重注意力融合和协同优化的多视图图聚类(MGCDC)。具体来说,首先使用图注意力自动编码器对每个视图进行编码,以获得视图特定的节点嵌入。然后通过视图级注意力机制将这些嵌入集成,生成统一的共识表示。为了指导学习过程,我们引入了两个协同优化目标:首先,使用跨视图聚类对齐损失来同时对视图特定嵌入和共识嵌入进行自我训练学习;其次,引入语义一致性增强损失来最大化节点嵌入与其对应聚类摘要之间的互信息。整个模型通过联合学习节点表示、整合多视图信息以及优化聚类分配来进行端到端优化。在五个基准数据集上的广泛实验表明,MGCDC的性能与最先进的方法相比具有很高的竞争力。
引言
图聚类的目标是根据图结构数据的拓扑和属性信息将节点划分为不相交的组,已成为数据挖掘(Li等人,2024年)和机器学习(Lu等人,2024年)中的一个基本任务。随着多源和异构数据的日益丰富,这一任务自然扩展到了多视图图数据(Ma等人,2022年)。多视图图聚类(MVGC)成为一个有前景但具有挑战性的研究方向(Lin、Kang、Zhang、Tian,2021年;Mei、Ren、Wu、Yang、Shao,2024年;Wu、Wang、Lu、Hu、Zhang、Nie,2025年),其目标是通过整合来自多个视图的信息将图节点划分为有意义的聚类,从而比单视图方法获得更健壮和准确的聚类结果。
近年来,提出了多种方法来解决MVGC问题。一些工作(Chen、Tang、Cai、Yuan、Feng、Zhang,2024b;Li、Lu、Wu、Ling,2023a)专注于将图自动编码器框架扩展到多视图图领域。Fan等人(2020年)提出了一种一对多图自动编码器聚类方法(O2MAC),该方法在自我训练框架内使用单视图编码器和多视图解码器来学习适合聚类的表示。还有其他方法(Wang、Li、Tao、Wang、Liu,2022年;Yang、Liao、Chen、Lai、Xu,2024年)利用对比学习来获得更具区分性的共识表示。例如,Pan和Kang(2021年)使用图过滤来去除噪声成分,并结合对比正则化来增强学习到的表示的结构完整性。
尽管在MVGC方面取得了显著进展,但仍存在几个关键挑战尚未解决。首先,现有的MVGC方法(Liu、Cao、Jing、Liang,2024年;Wang、Chang、Fu、Zhao,2023年)往往难以有效捕捉每个视图中的独特结构信息以及不同视图之间的互补关系。一方面,不同的视图可能表现出不同的数据分布和拓扑结构;另一方面,简单的操作(如连接(Xu等人,2023年)或加权平均(Fettal、Labiod、Nadif,2023年;Trosten、Lokse、Jenssen、Kampffmeyer,2021年)通常无法同时保留各个视图中的独特结构特征(视图特定信息)和充分探索视图之间的深层互补关系(互补信息)。其次,缺乏强制全局语义一致性的机制,经常导致共识表示不稳定和聚类质量下降。尽管成功整合了多视图信息(Zhan等人,2019年),但得到的统一节点表示可能仍然缺乏区分性(Li等人,2022年),这可能会阻碍模型实现足够的聚类级区分性和全局语义一致性。此外,不同视图之间的内在聚类结构可能不一致甚至冲突,进一步复杂化了学习过程。因此,调和这些差异并引导模型学习高质量、具有鲁棒性、区分性且在所有视图上都可接受的共识表示至关重要。
为了解决这些问题,我们提出了一种新的端到端多视图图聚类方法,称为基于双重注意力融合和协同优化的多视图图聚类(MGCDC)。具体来说,首先使用图注意力自动编码器对每个视图进行编码,以生成视图特定的节点嵌入。然后通过视图级注意力机制将这些嵌入融合,形成整合了跨视图互补信息的统一共识表示。为了指导聚类过程,我们引入了两个协同优化目标:首先,使用跨视图聚类对齐损失来同时对视图特定嵌入和共识嵌入进行自我训练学习,从而对齐不同视图中的聚类分布;其次,引入语义一致性增强损失来最大化节点嵌入与其对应聚类摘要之间的互信息,从而增强全局语义一致性。整个MGCDC模型通过联合学习节点表示、整合多视图信息和优化聚类分配来进行端到端优化。在五个基准数据集上的广泛实验表明,MGCDC的性能与最先进的方法相比具有很高的竞争力。
本文的其余部分结构如下:第2节讨论相关工作;第3节详细描述MGCDC;第4节展示实验结果和分析;第5节给出结论。
相关工作
我们的工作处于图聚类和多视图学习的交叉点。在本节中,我们简要回顾了与本文相关的单视图和多视图图聚类的相关文献。
方法论
定义了一个包含N个样本的多视图属性图数据集:
其中,
表示第v个视图中的节点特征,
表示第v个视图中的图结构邻接矩阵。本文使用的数学符号及其解释列在表1中。
在本节中,我们提供了所提出的端到端多视图图聚类的详细描述。
数据集
为了展示我们模型的通用性和鲁棒性,我们在五个具有代表性的多视图属性图数据集上对其进行了评估。这些数据集包含了不同类型的异构性:ACM和DBLP展示了多样的图拓扑结构;Amazon Photos具有异构的属性空间;WIKI-pro结合了结构和属性的异构性。这些数据集的详细统计信息总结在表2中。以下是每个数据集的简要描述:
1.ACM:一个
结论
在本文中,我们提出了MGCDC,这是一种端到端的多视图图聚类框架,它结合了双重注意力融合和协同优化,以解决现有方法在捕捉视图特定结构特征和跨视图互补关系方面的局限性。通过为每个视图使用图注意力自动编码器、视图级注意力机制进行自适应融合以及两个协同优化目标,该框架能够共同学习
CRediT作者贡献声明
Zuowei Wang:撰写 – 审稿与编辑、撰写 – 原稿、可视化、验证、监督、方法论、调查、形式分析、数据整理、概念化。Sen Xu:撰写 – 审稿与编辑、监督、软件、资源、项目管理、资金获取。Naixuan Guo:撰写 – 审稿与编辑、资源。Xuesheng Bian:撰写 – 审稿与编辑、监督、资源、项目管理、资金获取。Xiufang Xu:撰写 – 审稿与
利益冲突声明
作者声明他们没有已知的财务利益或个人关系可能影响本文报告的工作。
致谢
本文得到了中国国家自然科学基金(编号62076215、62301473)、江苏大学青兰项目、中央高校基本科研业务费(编号K93-9-2022-03)、江苏省高等学校自然科学基金(编号23KJB520039)、江苏省网络安全与信息重点实验室(编号BM2003201)以及盐城基础研究基金项目(编号YCBK2023008、YCBK2024028)的支持。