用于图神经网络推荐中交叉公平性的分叉对抗网络

《Engineering Applications of Artificial Intelligence》:Bifurcated adversarial networks for intersectional fairness in graph neural network recommendations

【字体: 时间:2026年01月16日 来源:Engineering Applications of Artificial Intelligence 8

编辑推荐:

  个性化推荐系统中的交叉性双向不公平问题及基于图神经网络的对抗去偏方法研究。摘要:针对图神经网络聚合嵌入中敏感信息暴露导致的交叉性双向不公平问题,提出双分支对抗网络与特征调制结合的方法。通过特征调制量化敏感信息影响生成特征影响因子,集成双分支对抗网络动态调整过滤强度,并采用加权特征融合获得最终去偏嵌入。实验证明该方法有效降低交叉性不公平且保持推荐性能。

  
杨然|张一豪|李凯北|何秦阳|李晓康|周伟
重庆理工大学人工智能学院,重庆,400054,中国

摘要

随着个性化服务的普及,推荐系统的公平性引起了广泛关注。基于图神经网络的对抗性去偏见方法在推荐系统领域也取得了显著进展。然而,许多方法忽视了交叉性双向公平性问题,这与嵌入式中敏感信息的暴露密切相关。此外,图聚合操作可能会加剧这一风险,从而提高推荐结果的不公平程度。
为了解决这些问题,我们引入了一种具有特征调制的分支对抗网络,该网络可以量化并纠正嵌入式中敏感信息带来的偏见。具体来说,我们首先实现了一种特征调制偏见捕获机制,以量化嵌入式中各种敏感信息的影响,并将其转换为特征影响因子。这些因子随后被整合到分支对抗网络中,以生成交叉群体因子,从而允许我们动态调整过滤器对不同群体的处理强度。最后,我们开发了一种加权特征融合方法来生成最终的去偏见嵌入。在两个数据集上的实验表明,我们的模型显著降低了交叉性双向不公平性,并且性能优于现有的最先进模型。

引言

随着互联网上信息的激增,推荐系统在各种平台上变得无处不在(Li等人,2025a;Yang等人,2025;Zhang等人,2025;Chen等人,2023a),在资源分配中发挥了关键作用。因此,这些系统中的公平性问题受到了越来越多的关注。根据以往的研究,我们将公平性分为三个不同的维度:用户公平性、项目公平性和双向公平性。用户公平性涉及对所有用户公平的推荐性能(Liu等人,2022;Wen等人,2022),确保所有人都能获得一致的服务水平。项目公平性则关注项目的均匀曝光或推荐性能(Shi等人,2024;Wang等人,2023a),旨在防止任何项目受到系统性的不利影响(Chen等人,2023b;Chen等人,2023a)。双向公平性旨在同时实现用户和项目的公平性,达到对推荐生态系统内所有利益相关者都有利的平衡(Wang等人,2023b;Wu等人,2022a)。
然而,我们认为实现双向公平性并不一定能够消除交叉性双向不公平性问题。双向公平性确保了用户和项目的公平对待,但忽略了每个交叉群体内部的公平一致性。例如,如图1所示:(a)显示在模型输入中,80%的男孩喜欢恐怖电影,而20%的男孩喜欢浪漫电影;相反,80%的女孩喜欢浪漫电影,20%的女孩喜欢恐怖电影。(b)表示推荐策略只向用户推荐一种电影,它倾向于向男孩推荐恐怖电影,向女孩推荐浪漫电影。(c)表明在这种策略下,模型能够维持用户和项目之间的双向公平。(d)揭示了不同交叉群体之间的满意度存在显著差异。这个例子表明,即使保持了用户和项目的公平性,交叉性双向不公平性仍然可能发生,这突显了在推荐系统中需要更加细致的公平性处理方法。
交叉性双向不公平性带来了重大挑战。对于用户来说,始终推荐与其敏感信息(如性别和年龄)相匹配的项目的推荐系统可能会阻碍他们发现潜在的兴趣,从而降低满意度。对于项目而言,这种不公平性限制了项目的表现上限,导致一些项目未能获得应有的曝光。对于推荐系统本身,它减少了推荐的多样性,加剧了回音室效应,而反馈循环可能会进一步加剧这种不公平性。从社会角度来看,这种不公平性可能会加剧两极分化,并导致资源分配效率低下(Yang等人,2023)。
先前的研究(Wang等人,2024)确实证实了推荐系统中存在交叉性双向不公平性,但尚未深入探讨这种现象的根本原因。交叉性双向不公平性指的是不同交叉群体之间的推荐性能差异,这些群体由用户和项目的敏感属性界定。我们的假设是,这种不公平性与敏感信息的处理方式密切相关。通过使用真实世界数据进行实验,我们证明了这种不公平性的程度与敏感信息的暴露程度之间存在相关性。
然而,我们发现当前用于解决推荐系统中交叉性双向不公平性的方法存在不足,尤其是在有效管理敏感信息方面。为了解决推荐系统中由敏感信息引起的交叉性双向不公平性问题,我们的核心概念是在对抗学习框架中整合过滤器来消除敏感数据,并辅以判别器来促进任何剩余偏见的反向传播(Liu等人,2023;Liu等人,2024;Wu等人,2021b)。虽然在一般情况下这种方法有效,但它可能会影响模型性能(Wang等人,2023b)。在基于图神经网络(GNN)的推荐系统中,聚合嵌入中的节点包含有关它们自身及其邻居的敏感信息(Wu等人,2021b),这导致了一个复杂的偏见分布,标准过滤器难以有效处理。敏感信息可以提高模型准确性,但也可能引入偏见,影响推荐结果和模型稳定性(Zhao等人,2023)。因此,针对聚合嵌入设计的对抗网络对于平衡公平性和性能至关重要。
受到基于GNN的推荐系统挑战的启发,我们引入了一种特征级线性调制(FiLM)机制来学习由各种敏感属性引入的偏见。这种机制擅长捕捉数据特征中存在的复杂底层结构(Liu等人,2023;Zhang等人,2024b)。因此,我们提出了一种称为具有特征调制的分支对抗网络(BAFM)的新颖后处理方法。具体来说,我们实现了一种特征调制偏见捕获机制来量化嵌入中的敏感信息偏见,以生成特征影响因子。分支结构巧妙地整合了这两种类型的特征影响因子,形成交叉敏感信息因子。这种整合使我们能够动态调整针对特定交叉群体的过滤器强度。此外,我们还设计了分支判别器来检测节点内敏感信息的复杂分布,从而最小化模型对敏感信息的依赖。最后,我们开发了一种加权特征融合模块来生成公平的聚合嵌入。为了更好地评估推荐结果的公平性,我们开发了交叉单边和双边公平性指标。我们在两个真实世界数据集上的广泛实验表明,BAFM有效减轻了交叉性双向不公平性,同时最小化了对模型预测性能的影响。
总结来说,我们工作的主要贡献如下。
  • 我们引入了一种新的评估策略,用于评估不同交叉群体之间的公平一致性,以便更清晰地描述推荐结果中的交叉性双向不公平现象。
  • 我们提出了一种具有特征调制的分支对抗网络。这种方法不仅有效减轻了交叉性双向不公平性,还最小化了对其预测能力的不利影响。
  • 我们的实证研究建立了交叉性双向公平性与敏感信息暴露程度之间的相关性。
  • 我们在两个数据集上的全面实验表明,我们的模型显著降低了交叉性双向不公平性,同时对模型推荐预测能力的影响最小,并且性能优于现有的最先进模型。

相关文献

相关工作

在本节中,我们回顾了相关文献,重点关注两个关键领域:对抗学习和推荐系统中的公平性。

初步介绍

我们定义了一组m个用户和一组n个项目。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号