基于区块链的半去中心化个性化联邦学习
《Computer Networks》:Blockchain Based Semi-Decentralized Personalized Federated Learning
【字体:
大
中
小
】
时间:2026年03月09日
来源:Computer Networks 4.6
编辑推荐:
为解决联邦学习中非独立同分布(Non-I.I.D.)数据导致的模型异质性、本地个性化与全局泛化冲突及异常客户端影响,提出区块链半中心化联邦学习框架BSDPFL。通过区块链建立可信服务器实现高效通信,结合知识蒸馏缩小模型差异,自适应L2正则化平衡个性化与泛化,动态知识吸收机制优化本地模型更新,并设计混合聚合策略抑制异常客户端干扰。实验表明BSDPFL在Fashion-MNIST、CIFAR-10、CIFAR-100上显著优于现有方法。
刘颖|卢宇|朱国平|刘双|李瑞志|杨凯|王静梅
吉林财经大学,长春,130117,中国
摘要
为了解决数据隐私问题,联邦学习(FL)提供了一个去中心化的学习框架,该框架能够在不共享数据的情况下促进模型的协作训练。然而,FL面临的一个重大挑战是数据并非独立同分布(Non-I.I.D.)。非独立同分布数据对FL的影响包括客户端模型之间的异质性、客户端模型上的局部个性化与泛化之间的冲突,以及异常客户端的影响。为此,我们提出了一种半中心化的个性化联邦学习框架(BSDPFL)来处理这些问题。我们利用区块链的去中心化特性和安全性,并将其与联邦学习相结合,构建了一个支持客户端之间通信和客户端与服务器之间通信的联邦学习框架。具体来说,首先使用知识蒸馏来减少不同客户端模型之间的更新方向差异。然后,采用自适应的L2正则化策略结合动态模型知识吸收机制来更新客户端模型,从而在局部个性化与全局泛化之间取得平衡。最后,提出了一种混合聚合策略,该策略考虑了贡献度和相似性,有效消除了异常客户端对模型聚合的影响。在Fashion-MNIST、CIFAR-10和CIFAR-100数据集上进行了广泛的实验,证明了BSDPFL在非独立同分布条件下显著优于现有方法。
引言
随着大数据技术、机器学习和深度学习的快速发展,它们在众多应用领域展现了显著的效果。然而,传统的集中式数据存储和训练方法无法满足实际场景中提出的严格的数据安全要求,特别是涉及敏感数据的情况[1]、[2]。为了克服这一限制,联邦学习(FL)作为一种专门的分布式学习方法,可以确保数据保持本地化,同时联合多个客户端来训练模型,从而为数据隐私保护提供了一种新的解决方案。
然而,现实世界的联邦学习用例经常处理异构的非独立同分布(Non-I.I.D.)数据[3]、[4]、[5],其中非独立同分布表现为特征分布偏斜、标签分布偏斜和数量偏斜[6]。因此,在非独立同分布的场景中,联邦学习框架中包含一些数据量很少或数据严重不平衡的客户端,即异常客户端。现有研究从两个主要角度分析了非独立同分布数据和异常客户端对FL的影响:FL框架架构和FL过程。
从架构角度来看,FL框架通常采用客户端-服务器或点对点网络结构[7]、[8]。由于缺乏客户端间的通信和可信的第三方服务器,客户端-服务器架构会导致客户端之间的优化方向不一致。这阻碍了有效的知识传递,增加了客户端模型之间的差异,导致全局收敛速度变慢和个性化性能受限[9]。在点对点网络结构中,客户端直接相互交互。然而,这种结构没有固定的云服务器设计,客户端根据特定规则在每一轮迭代中随机选择为临时服务器。因此,由于缺乏集中的协调节点,全局模型的更新完全依赖于客户端之间的协作,这影响了高度一致性和协调性的实现[10]。这两种传统的联邦学习框架都存在固有的局限性。在处理现实世界中的非独立同分布数据时,异常或恶意客户端的数量会增加,而客户端之间的信任问题会导致通信拒绝。这些挑战使得传统的FL框架难以解决数据障碍和通信客户端之间的模型异质性问题。
整个FL过程可以分为模型训练阶段和模型聚合阶段[11]、[12]。在模型训练阶段,客户端在每次迭代中使用本地数据训练新的全局模型。客户端上的模型优化方向仅基于本地数据分布来确定,而全局模型则学习整体数据分布。因此,客户端模型在个性化与泛化之间产生了冲突[13]。传统方法产生的全局模型容易受到异常客户端的影响,在全局聚合过程中加剧了收敛问题[14]。简而言之,在异构数据场景中,联邦学习过程的两个阶段都受到非独立同分布数据的影响,导致模型无法同时适应局部和全局数据分布,最终导致模型性能下降[15]。
为了解决上述问题,我们从联邦学习框架和训练两个角度同时优化联邦学习,提出了一种基于区块链的个性化联邦学习框架BSDPFL。1) 利用去中心化结构提高集中式架构的传输效率,为后续的客户端间通信奠定基础;利用区块链的高可靠性和连通性来减轻异常客户端对FL训练的影响,从而打破现实世界应用场景中的数据障碍。2) 通过邻居通信机制实现的客户端间通信促进了端到端的学习,弥合了客户端-服务器架构中的模型更新差异。3) 为了灵活控制全局知识对齐与局部个性化之间的权衡,提出了一种自适应的L2正则化策略结合动态模型知识吸收机制。4) 提出了一种混合聚合策略,考虑了模型相似性和基于性能的贡献度,动态调整客户端权重,同时减轻异常客户端的不利影响。在两个不同的数据集上进行了广泛的实验,BSDPFL在非独立同分布条件下显著优于其他模型。
本研究的主要贡献总结如下:
我们提出了BSDPFL,一种基于区块链的半去中心化个性化联邦学习框架,用于解决客户端模型之间的异质性、客户端模型上的局部个性化与泛化之间的冲突,以及异常客户端的影响。为了减轻客户端模型之间的异质性,引入了区块链技术来建立可信的第三方服务器,从而构建了一个半中心化的联邦学习框架。这种方法在打破数据孤岛的同时确保了通信安全,并提高了传输效率。此外,知识蒸馏帮助客户端相互学习,减少了模型差异。为了减轻局部模型和全局模型之间的优化方向冲突,我们设计了一种自适应的L2正则化策略结合动态模型知识吸收机制,使客户端能够在训练过程中动态平衡全局知识对齐和局部个性化。为了减少异常客户端对模型聚合的不利影响,我们提出了一种混合聚合策略,结合了基于Frobenius的模型相似性和基于性能的贡献度加权,提高了在非独立同分布数据场景下的聚合鲁棒性和公平性。在Fashion-MNIST、CIFAR-10和CIFAR-100上的广泛实验表明,BSDPFL在收敛速度和最终模型准确性方面显著优于现有的个性化FL方法,并在非独立同分布场景下保持了强大的鲁棒性。章节摘录
联邦学习框架
传统的联邦学习算法都遵循服务器-客户端模型,即集中式联邦学习。FedAvg[3]在模型聚合阶段为每个客户端模型分配相同的权重。FedProx[16]在损失函数中添加了一个基于FedAvg的近似项,可以减轻系统异质性对联邦环境中模型训练的影响。然而,它无法解决客户端之间优化方向的一致性问题。
半中心化区块链FL框架
区块链联邦学习框架遵循传统的联邦学习训练过程,由一个中央聚合服务器和一组客户端支持。区块链系统而非云服务器负责模型聚合。基本过程如下:1) 在t次全局训练轮次中,区块链为每个客户端分配n个全局模型θi来初始化局部客户端模型。2) 客户端k的本地数据分布是整体框架
联邦学习的核心框架涉及在数据源(即客户端设备)部署机器学习或深度学习算法,并在这些客户端上进行模型训练。传统的联邦学习架构遵循服务器-客户端模型。去中心化联邦学习框架消除了服务器组件。客户端负责训练它们的本地模型,同时从其他客户端接收本地模型并进行模型聚合
实验
在本节中,通过在三个真实世界数据集Fashion-MNIST、CIFAR-10和CIFAR-100上对BSDPFL进行广泛实验,验证了其相对于多种联邦学习算法的优越性能。
结论与未来工作
在本文中,我们提出了BSDPFL,一种基于区块链的半去中心化个性化联邦学习框架,用于解决非独立同分布数据下的联邦学习(FL)中的关键挑战,包括:1) 客户端模型之间的异质性,2) 客户端模型上的局部个性化与泛化之间的冲突,以及3) 异常客户端的影响。对于FL架构,一方面,我们利用区块链技术来实现
CRediT作者贡献声明
刘颖:撰写 – 审稿与编辑、监督、资源管理、方法论、数据整理。卢宇:撰写 – 原始草案、软件开发、方法论。朱国平:撰写 – 审稿与编辑、调研、资金获取。刘双:数据整理、概念化。李瑞志:资源管理、项目协调。杨凯:监督、资源管理、形式分析。王静梅:监督、资源管理。
利益冲突声明
作者声明他们没有已知的财务利益或个人关系可能影响本文所述的工作。
刘颖于2013年在中国科学院长春分院获得博士学位。她是吉林财经大学管理科学与信息工程学院的副院长,吉林商业大数据中心的主任,以及数据科学与大数据专业技术的负责人。她当前的研究兴趣包括金融人工智能、图机器学习、金融风险防控等。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号