在现实世界中,问题通常具有多个属性,从多个角度解决问题会得到不同的结果。日常生活的许多方面都涉及多个属性,例如多媒体数据(Zhang等人,2019年),它包含文本、图像和声音信息。这些元素各自具有独特的特征:例如,图像的边缘纹理和颜色(Yang等人,2019年),文本的语言类型,以及声音的特性。这些具有多个属性的组件可以被视为问题的多个视角,通常被称为多视图数据。多视图数据允许从各种视角描述问题,从而更全面地理解底层信息(Li, Yang, Zhang, 2019; Zhao, Xie, Xu, Sun, 2017)。多视图数据的概念催生了专门用于处理此类信息的各种聚类方法,即多视图聚类(Bickel和Scheffer,2004年)。
多视图聚类方法旨在利用来自不同视图的互补信息来提高聚类效率。传统的多视图聚类方法主要可以分为三类:基于子空间的方法、基于图的方法和基于张量的方法。基于子空间的方法试图学习一个共享的潜在子空间,将所有视图的信息整合在一起,从而实现考虑所有可用视角的稳健聚类(Gao, Nie, Li, Huang, 2015; Zhang, Huang, Wang, 2024)。基于图的方法构建图来表示每个视图中的样本之间的关系,然后结合这些图来获取多视图数据的结构特征(Dornaika, El Hajjar, 2024; Gao, Wan, Liang, Wang, Liu, Shao, 2020)。基于张量的方法利用张量表示来建模不同视图之间的多向关系,从而探索所有视图的高阶相关性(Wu, Lin, Zha, 2019; Zhong, Lyu, Yang, 2025; Zhu, Zhang, Luo, Jiang, Wang, 2025)。前述方法旨在利用不同视图的互补方面,确保聚类结果比单视图方法更加稳健和全面。
尽管多视图聚类取得了进展,但仍存在一些挑战。传统方法,如自表达子空间聚类,在处理大型数据集时由于需要构建大型亲和矩阵而面临高计算成本的问题。此外,大多数现有方法主要关注单个视图内的样本对相关性,忽略了可能揭示更深层次全局模式的不同视图间的高阶关系。此外,忽视跨视图一致性往往会导致错位,削弱了聚类效果的稳健性和连贯性。
为了解决这些挑战,我们提出了一种新的多视图聚类框架——基于锚图学习的高阶相关性与一致性感知多视图聚类(HCAGL)。HCAGL利用锚图学习通过一组较小的锚点高效降低每个视图的维度。这种方法不仅显著降低了计算复杂性,还保留了关键的结构信息。为了探索视图间的高阶相关性和空间结构,在低维锚点嵌入上应用了张量Schatten p-范数。这种范数不仅捕捉了视图间的复杂依赖关系,还传播了全局一致性,确保了有价值的结构模式在视图间得到保留。此外,还结合了一种自适应邻域图学习策略来生成共识图,根据每个视图对聚类的相关性动态调整权重,从而进一步增强聚类的稳健性。HCAGL的流程图如图1所示,其主要贡献如下:
- •
我们的方法结合了基于锚点的表示学习、高阶相关性建模和自适应邻域图学习,提高了聚类的稳健性,并从多视图数据中捕获了复杂的结构特征。
- •
应用锚图学习通过用一组紧凑的锚点表示每个视图来降低数据维度和计算复杂性。这种方法保留了每个视图的独特结构特征,确保了在多样化应用中高效处理多视图数据。
- •
我们的模型将所有低维锚点嵌入堆叠成一个三阶张量,并对其应用张量Schatten p-范数,有效地促进了跨视图的高阶相关性和空间结构的探索。这种方法在捕捉复杂视图间依赖关系的同时传播了全局一致性信息,显著提高了聚类的一致性,并减轻了冗余和噪声的影响。
- •
我们开发了一种高效的迭代算法来优化统一的目标函数。在六个多视图基准数据集上的广泛实验表明,我们的方法在聚类准确性、稳健性和计算效率方面均优于现有的最先进方法。