用于边缘网络中分散式联邦学习的自适应梯度传输
《Computer Networks》:Self-Adaptive gradient transmission for decentralized federated learning in edge networks
【字体:
大
中
小
】
时间:2026年02月23日
来源:Computer Networks 4.6
编辑推荐:
针对动态边缘网络中带宽异构性和通信开销高的问题,提出FedSGT框架。该框架通过自适应梯度传输阈值机制,结合带宽感知参数过滤与补充传输,减少通信量并加速模型收敛,实验表明其收敛速度比现有方法提升37.1%
段明军|范晨宇|范朗|曾志豪|张晓宁
中国电子科技大学信息与通信工程学院,成都,中国
摘要
物联网(IoT)的快速发展导致边缘设备生成的数据呈指数级增长,加剧了带宽压力和隐私保护挑战。联邦学习(FL)通过交换模型参数而非原始数据来实现协作模型训练,成为保护边缘网络隐私的有希望的解决方案。传统的集中式联邦学习(CFL)依赖于参数服务器来汇总更新,而分布式联邦学习(DFL)则提供了更高的灵活性和鲁棒性,使其更适合动态的边缘环境。然而,现有的DFL框架难以应对通信异质性问题,并会产生大量的通信开销,最终降低训练效率。为了解决这些限制,我们提出了基于自适应梯度传输的分布式联邦学习框架FedSGT。FedSGT利用带宽感知的参数过滤和补充参数传输来减轻通信异质性的负面影响并减少通信开销,从而加速收敛。在FedSGT中,每个客户端根据动态链接带宽采用自适应的梯度传输阈值,仅传输发生显著变化的参数,从而减少通信开销并加快收敛速度。此外,所有客户端之间的同步等待时间被用来传输低于阈值的参数,优先处理较大的更新,以提高带宽利用率并进一步提升收敛效率。我们从理论上证明了FedSGT的收敛性。实验结果表明,FedSGT在模型准确性方面可与最先进的基线算法相媲美,同时收敛速度提高了多达37.1%。
引言
联邦学习(FL)作为一种有效的隐私保护解决方案,通过分布式模型训练和参数交换,在边缘设备之间实现协作模型训练[1],[2],满足了边缘网络中对低延迟数据处理和隐私保护日益增长的需求。然而,传统的集中式联邦学习(CFL)框架依赖于参数服务器来汇总梯度,这限制了其在动态和异构边缘环境中的适应性和可扩展性,如图1(a)所示。相比之下,分布式联邦学习(DFL)通过客户端之间的点对点协作消除了对中心节点的依赖,成为边缘场景中更可扩展的解决方案[3],如图1(b)所示。DFL在带宽异质性和基础设施受限的环境中提供了更大的灵活性。通过允许在任何通信图上进行训练,它增强了鲁棒性,提高了可扩展性,并扩展了其在新兴无线和边缘网络中的应用范围。尽管如此,现有的DFL框架在动态边缘网络中仍面临严重挑战,尤其是由于通信异质性和高通信开销导致的低训练效率。
边缘网络本质上具有动态和异构的带宽特性[4],这对DFL框架的部署构成了重大挑战。在这种条件下,现有的DFL方法经常遇到落后者问题,并产生大量的通信开销。落后者指的是训练过程明显慢于其他客户的客户端[5],导致较快的客户端在等待同步时处于空闲状态。这种空闲时间会导致全局迭代周期延长,从而降低整体训练效率。通信异质性是导致落后者的主要原因,因为带宽有限的客户端会延长每个训练轮次的完成时间。同时,DFL中的高通信开销源于客户端之间频繁交换完整模型参数以确保收敛。鉴于现代深度学习模型通常包含数百万个参数[6],这种交换对网络资源造成了巨大压力,尤其是在带宽受限的环境中。因此,有必要为边缘网络设计有效的学习机制,以加速收敛速度,同时减轻落后者和过度通信开销的不利影响。
一方面,为了解决落后者问题,一些现有方法采用了异步训练[7],[8],[9]或客户端选择策略[10],[11],[12],其中允许较快的客户端执行更多的本地更新,或选择性地排除较慢的客户端参与某些训练轮次。这些方法使慢速客户端能够赶上快速客户端。然而,排除资源受限的客户端或减少它们的参与频率会限制它们的本地数据在训练过程中的作用。由于落后者总是拥有网络其他地方没有的独特数据分布或关键本地信息,减少它们的贡献可能会对DFL的整体模型性能和公平性产生不利影响。另一方面,为了解决高通信开销问题,现有研究主要集中在参数量化[13],[14],[15]和稀疏化技术[16],[17],[18]上,这些方法通过压缩模型更新来减少通信成本。尽管这些方法在减少带宽消耗方面有效,但它们通常对所有参数应用统一的处理方式,而不考虑它们对模型性能的相对贡献。因此,重要的参数可能会被忽略,最终降低训练效率并阻碍收敛。
使用补充参数传输可以有效缓解落后者问题,而带宽感知的参数过滤可以在不牺牲训练效率的情况下减少通信开销。受此方法的启发,我们提出了一种基于自适应梯度传输的分布式联邦学习框架(FedSGT)。FedSGT通过两种关键机制解决了落后者和高通信开销的问题:带宽感知的参数过滤和补充参数传输,从而加速收敛。在该框架中,只有自上次迭代以来发生显著变化的模型参数才会被传输给邻近客户端。参数传输的动态阈值基于实时链接带宽计算,允许高带宽客户端在较低的阈值下传输更多参数。此外,在每次迭代的同步等待期间,高带宽客户端会发起补充参数传输,从而利用空闲的通信资源传输在初次传输中未达到阈值的参数。
本文的主要技术贡献总结如下:
•提出了一种基于自适应梯度传输的分布式联邦学习框架FedSGT,以减轻落后者的负面影响并减少通信开销。
•本文对FedSGT的收敛性进行了理论分析。
•通过广泛的实验验证了FedSGT的收敛性能和有效性。
本文的其余部分组织如下。第2节我们简要回顾了相关工作。第3节介绍了动机并阐述了问题。第4节和第5节详细介绍了提出的FedSGT算法及其收敛性分析。第6节报告了广泛的实验结果,证明了FedSGT的有效性。最后,第7节总结了本文。
相关工作
相关工作
FedSGT的主要目标是解决在动态、异构边缘网络中部署DFL时遇到的落后者和高通信开销问题。这两个问题一直是许多研究的重点。我们在下面回顾了最相关的工作。
落后者问题解决方案:在带宽异构的边缘网络中,落后者问题经常发生,即完成训练更快的客户端必须等待较慢的客户端完成[5]。
动机和问题阐述
在本节中,我们首先根据第3.1节中的示例提供动机,然后在第3.2节详细阐述要解决的问题。表1总结了本文中使用的符号。
算法设计
在本节中,我们将详细介绍FedSGT。首先在4.1节介绍FedSGT的工作流程,然后在4.2节介绍参数过滤机制和过滤阈值的细节。接下来,在4.3节介绍补充参数传输机制的基本思想。在4.4节,我们描述了FedSGT的算法细节。此外,4.5节讨论了一些常见问题。
收敛性分析
在本文中,我们在一些常见假设下证明了FedSGT的收敛性。客户端端更新本地参数的操作可以基于以下矩阵运算进行:
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号