BKT-DSNN:基于动态模型分配的通信高效脉冲神经网络联邦学习

《Neurocomputing》:BKT-DSNN: Communication efficient spiking neural network federated learning based on dynamic model assignment

【字体: 时间:2026年02月21日 来源:Neurocomputing 6.5

编辑推荐:

  本文提出基于块知识传输的延迟脉冲神经网络(BKT-DSNN)框架,通过动态模型分配和脉冲知识迁移机制,有效解决边缘设备上联邦学习中的异构数据、噪声干扰和通信受限问题。实验表明,该方法在CIFAR10数据集上以7.97%的通信成本达到与SOTA方法相当的精度,同时实现13.2%的精度提升。该框架创新性地融合了块式正则化和神经拟态触发算法,在保持低能耗优势的同时突破精度瓶颈,为资源受限环境下的联邦学习提供新范式。

  
Ziao Qu|Hao Sun
信息与电气工程学院(苏塞克斯人工智能研究所),浙江工商大学,杭州,310018,中国

摘要

近年来,由于联邦学习(FL)具有保护隐私的特性,它已成为分布式学习领域的一个重要研究方向。然而,在边缘设备上的实现仍然受到异构性和噪声环境以及有限通信资源的限制。为了解决这些问题,我们提出了一种基于块状知识传输(BKT-DSNN)的延迟脉冲神经网络,这是一种基于脉冲神经网络的高效联邦学习框架,具有较低的通信成本。该框架通过协同优化联邦学习框架和SNN模型来实现这一目标。具体来说,全局模型块被调整以适应客户端的资源状态,并采用块状正则化来保持全局和局部模型更新之间的平衡。随后,构建了一种脉冲知识传输机制,通过服务器端的全局知识迁移来减轻客户端之间的数据异质性和噪声干扰。此外,我们还提出了一种基于膜电位配置的最优触发离散时间算法,应用于SNN模型。这一高效的学习过程使得突触延迟和权重的获取成为可能。我们在四个经典数据集上评估了我们的方法,广泛的实验结果表明,与基线方法相比,我们的方法将通信成本降低了大约1-2个数量级。在CIFAR10数据集上,我们的方法在仅使用7.97%的通信成本的情况下,实现了与最先进方法相同的准确率,并且在相同的训练轮次下提高了13.2%的准确率。

引言

近年来,边缘计算和物联网(IoT)设备(如智能手机、可穿戴设备和智能终端)的爆炸性增长开启了持续数据生成的新时代[1]。这一发展迫切需要分布式学习技术,这些技术可以直接在去中心化的数据源上进行模型训练,而无需传输原始数据,从而有效保护敏感信息的隐私。在这种背景下,联邦学习(FL)作为一种开创性的隐私保护范式应运而生,它允许多个客户端通过交换模型更新而不是原始数据来协作训练共享模型[2]。然而,尽管FL具有巨大潜力,但在资源受限的边缘设备上部署FL仍面临多个挑战[3]。在资源受限的边缘设备上部署FL时,处理能力的瓶颈尤为突出,尤其是在处理时空敏感任务(如异常行为检测)时,这使得传统的FL框架难以在效率和准确性之间取得平衡[4],[5],[6]。此外,在实际的IoT部署中,边缘节点的数据通常具有非独立同分布(non-IID)特性,并伴随着复杂且多变的环境噪声,这不仅加剧了局部模型之间的差异,还可能导致全局模型收敛不稳定和性能下降,严重限制了FL在大规模边缘场景中的实用性和可扩展性。
为了解决这些挑战,脉冲神经网络(SNN)通过其事件驱动的计算特性和低功耗优势,为将神经形态计算与FL相结合提供了新的思路[7],[8]。因此,SNN与FL的结合有望解决低功耗设备上的模型训练问题[9]。联邦脉冲神经网络[10]采用分布式训练架构,边缘设备可以在不交换私有数据的情况下协作优化全局SNN参数。
尽管联邦脉冲神经网络在边缘设备上进行隐私保护训练方面具有潜力[11],但现有方法仍面临几个关键瓶颈,阻碍了其大规模部署。首先,通信开销仍然是一个主要限制。传统的FL框架需要频繁同步全尺寸模型参数,对于在低带宽边缘链接上运行的时空敏感SNN来说,这一过程成本过高。其次,系统异构性——表现为客户端之间计算能力、内存和能源预算的差异——常常被忽视。严格强制使用统一的全局模型结构不仅会导致“落后者”效应,还会导致更强大设备的资源利用率低下。第三,边缘节点之间的统计异质性会导致严重的客户端漂移,从而大幅降低收敛稳定性和模型泛化能力[12]。当前的通信减少和优化策略主要是静态的,无法适应客户端资源状态和数据分布之间的动态交互。
尽管在联邦学习领域的通信优化和复杂数据处理方面取得了一系列进展,但这些技术迁移到基于SNN的联邦学习框架时仍存在挑战。这主要是由于SNN的二进制脉冲列的时间编码特性导致有效信息密度稀疏,使得传统的参数聚合方法难以进行跨客户端脉冲同步校准。此外,当前的研究存在结构不平衡,大多数努力集中在FL框架的改进上,而忽视了SNN模型的协同优化。这种不平衡导致了急迫的准确性与能量之间的权衡问题,即保持SNN的低能耗优势是以牺牲准确率为代价的。此外,SNN独特的时域解耦能力在FL框架中尚未得到充分利用,建立脉冲域知识共享机制对于突破准确性瓶颈至关重要。
在本文中,我们提出了一种基于块状知识传输(BKT-DSNN)的延迟脉冲神经网络,这是一种低通信成本的联邦学习框架,用于处理异构数据和噪声环境的影响。我们的框架将块状正则化和脉冲知识传输周期集成到FL中,解决了全局数据集和客户端对FD的影响。此外,我们还实现了大多数现有SNN-FL研究忽略的SNN模型优化。我们的方法为资源受限的异构和噪声环境中的FL提供了一个有前景的解决方案,同时保持了高准确率和低通信成本。主要贡献总结如下:
  • 1.
    我们提出了一种高效的动态模型分配框架,用于联邦SNN,采用块状正则化机制和基于贪婪的启发式算法,根据客户端的数据分布、计算能力和通信能力自适应地分配全局模型块,显著降低了通信成本。为了解决SNN中知识蒸馏效率降低的问题,我们提出了一种使用服务器生成的全局图像向量的脉冲知识传输方法,以创建无偏原型,从而在异构数据下优化知识共享并提高准确率。
  • 2.
    我们在FL框架中设计了一种基于膜电位的最佳触发离散化算法。通过理论推导初始膜电位配置并引入层自适应阈值门控因子,我们构建了一个受神经启发的、可解释的SNN框架,具有学习的突触延迟,显著增强了复杂时间特征学习的稳定性和建模能力。
  • 3.
    我们开发并完善了通信成本分析模型,并优化了评估机制。从复杂数据和通信资源的角度,我们分析了我们的方法在独立同分布(IID)、异构和复杂环境下的性能和通信成本,与基线和最先进方法进行了比较。实验结果证明了我们的方法在保持高准确率的同时,实现了高鲁棒性和低通信成本。
本文的其余部分组织如下:第2节总结了相关工作并讨论了当前的限制。第3节介绍了我们提出的方法论,并提供了伪代码和流程图。第4节中的全面实验展示了该方法的优越性。第5节提出了结论。

章节摘录

联邦脉冲神经网络

为了保护隐私并利用嵌入式设备上的去中心化数据,提出了联邦SNN。FL-SNN [10]采用概率SNN模型来解决设备上的数据稀缺问题,但其验证仅限于双客户端场景。文献[13]使用VGG9网络拓扑和Leaky Integrate-and-Fire(LIF)神经元模型构建了一个去中心化的隐私保护训练框架,引入了分段线性函数进行梯度近似,

方法

本文提出的联邦学习框架包括两个主要模块:动态模型分配和脉冲知识传输(第3.1节),以及优化触发的离散时间SNN(第3.2节)。首先,在联邦学习中,动态模型分配框架通过块状调节和基于贪婪的算法实现了客户端计算和通信资源的动态适应,为跨客户端知识共享提供了轻量级和可扩展的基础

数据集和模型

在本文中,我们在四个图像数据集上评估了BKT-DSNN:MNIST、Fashion-MNIST、CIFAR10和CIFAR100。MNIST和Fashion-MNIST每个包含70,000张28灰度图像,其中60,000张用于训练,10,000张用于测试。CIFAR10和CIFAR100每个包含60,000张32RGB图像,其中50,000张用于训练,10,000张用于测试。

数据划分

我们在独立同分布(IID)和非独立同分布(non-IID)数据分布下训练模型,以研究数据异质性的影响。此外,还使用了具有不同标准差的高斯噪声

结论

本文提出了一种高效的联邦学习框架BKT-DSNN,用于联邦脉冲神经网络。通过基于动态模型分配和联合脉冲知识传输的联邦学习框架,以及基于膜电位配置设计的最佳触发离散时间算法,系统地解决了数据异质性、噪声影响和有限通信资源的挑战

未引用的参考文献

[43], [44]

CRediT作者贡献声明

Ziao Qu:撰写——原始草稿,软件,方法论,概念化。Hao Sun:撰写——审阅与编辑,撰写——原始草稿,监督,资金获取,概念化。

利益冲突声明

作者声明他们没有已知的可能会影响本文报告工作的竞争性财务利益或个人关系。
Ziao Qu目前就职于浙江工商大学信息与电子工程学院(苏塞克斯人工智能研究所)。他的主要研究兴趣是边缘计算、脉冲神经网络和联邦学习。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号