近年来,深度神经网络(DNNs)取得了显著突破。然而,它们对大规模标记数据的依赖、巨大的能耗(Strubell等人,2020年)以及由于与生物信息处理的差异而导致的可解释性有限,阻碍了进一步的发展。为了克服这些问题——尤其是能源瓶颈——研究人员越来越关注受生物学启发的脉冲神经网络(SNNs)。作为第三代神经网络(Schuman等人,2022年),SNNs提供了事件驱动的计算、时空编码和固有的低功耗潜力。利用离散的脉冲,SNNs模仿了生物神经元的动态特性,在复杂的时间处理和节能的神经形态计算方面显示出巨大潜力(Eshraghian等人,2023年)。
为了在复杂的分类任务中实现最先进的(SOTA)性能,当前主流的SNN训练方法主要依赖于基于反向传播(BP)的全局优化算法(Dampfhoffer等人,2023年)。这些方法成功地将成熟的梯度反向传播机制应用于SNNs,通过引入替代梯度(SG)等技术来实现这一点,这些技术近似了不可微分的脉冲发射过程,并使得深度网络能够端到端优化(Lee等人,2020年)。与这种端到端训练方法并行的是另一种极具影响力的混合架构范式,它将SNN系统分为两个独立阶段:特征提取和分类,以便同时满足高性能和生物学合理性(Vaila等人,2020年)。在这种范式中,强大的SNN前端负责从时空数据中学习特征。这部分通常采用无监督的、受生物学启发的机制,例如基于脉冲时序依赖性可塑性(STDP)的卷积层(El-Assal, Tirilly, Bilasco, 2022; Falez, Tirilly, Bilasco, Devienne, Boulet, 2019; Kheradpisheh, Ganjtabesh, Thorpe, Masquelier, 2018),或直接使用预训练的深度卷积SNNs。随后,这些提取的时空脉冲特征被输入到一个单独的、通常是全连接的脉冲分类器中,该分类器执行最终的监督分类决策(Deng, Li, Zhang, Gu, 2022; Mozafari, Kheradpisheh, Masquelier, Nowzari-Dalini, Ganjtabesh, 2018; Zhao, Zeng, Zhang, Shi, Zhao, 2020)。
尽管这种混合架构在理论上很有吸引力,但脉冲分类器本身已成为主要的瓶颈,限制了系统的整体准确性和计算效率(Stromatias等人,2017年)。现有的脉冲分类器通常面临两个根本性挑战:首先,模型缺乏灵活性。网络拓扑通常需要通过反复试验来手动预设,这与生物大脑的结构可塑性形成鲜明对比。其次,训练过程效率低下。主流的替代梯度算法(Zenke和Vogels,2021年)在计算上非常昂贵,这与SNNs追求的低功耗目标背道而驰。
生物大脑为这些工程问题提供了优雅的解决方案。大脑的神经发生机制揭示了一种按需自适应结构优化的原理,可以根据新神经元对网络功能的贡献,不断生成并将其选择性地集成到现有神经电路中(Ming和Song,2011年)。这确保了大脑形成最紧凑的网络,保证了稳定和高效的学习(Turrigiano,2012年)。将这种生物可塑性机制与SNNs深度融合无疑指出了构建自适应、高性能SNN分类器的一个有前景的研究方向(Huang等人,2023年)。尽管从生物可塑性中汲取灵感已成为SNN研究中的一个重要趋势,但现有工作尚未充分模拟和整合神经发生和神经活动机制。虽然在更广泛的深度学习领域中存在大量关于自适应神经架构的研究,如神经架构搜索(NAS)(Elsken等人,2019年)、渐进式网络(Rusu等人,2016年)和可瘦身网络(Yu等人,2019年),但这些方法通常依赖于计算成本高昂的“搜索和重新训练”范式或迭代梯度优化,这些方法不适合SNNs的效率限制。在结构层面,大多数SNN研究仍然集中在突触的动态调整上(Goupy等人,2024a),而明确模拟神经元级、基于功能的增量整合的工作仍然很少。在学习层面,许多关于稳态机制的模拟仍然与迭代、基于梯度的优化紧密耦合,难以避免相关的计算开销(Confavreux等人,2025年)。为了解决这些限制,我们提出了基于神经发生的脉冲神经网络(NG-SNN),这是一个动态自适应框架,它将基于功能的神经元整合与高效的分析权重学习相结合。NG-SNN将生物神经发生转化为一个实用的脉冲分类模块,通过单次权重计算动态生成最优网络结构,同时避免了迭代优化。本文的主要贡献可以总结如下:
•我们提出了NG-SNN,它实现了一种统一的模拟神经发生机制。这种机制有机地将基于功能的增量神经元整合与基于活动的自适应权重学习相结合,首次将监督式的增量构建机制引入SNNs。
•在结构层面,NG-SNN严格遵循神经发生的选择性整合原则,根据功能贡献标准按需生长,自动演化出紧凑且高效的拓扑结构。
•在学习层面,它避免了低效的迭代优化,采用了一种新颖的、基于活动的自适应正则化伪逆方法,一次性分析求解输出权重,从而显著提高了训练效率和数值稳定性。
•在标准的静态和神经形态基准测试中,我们验证了NG-SNN作为一个即插即用的分类器的有效性,显示出在准确性、模型紧凑性和训练效率方面的持续提升。