
-
生物通官微
陪你抓住生命科技
跳动的脉搏
一种用于软件开发的联邦自适应大型语言模型微调框架
《IEEE Transactions on Services Computing》:A Federated Adaptive Large Language Model Fine-Tuning Framework for Software Development
【字体: 大 中 小 】 时间:2026年02月10日 来源:IEEE Transactions on Services Computing 5.8
编辑推荐:
大型语言模型(LLMs)在代码智能任务中效率显著提升,但仍面临三大挑战:1)需大量特定任务标注数据,获取成本高;2)组织间高质量代码数据难以共享;3)多编程语言差异导致干扰。F-CodeLLM联邦自适应微调框架首次将联邦学习应用于代码LLM优化,在保护数据隐私前提下实现跨组织协作,通过设计高效微调方法降低计算和通信开销,实验表明其性能接近集中式微调,且能有效利用多语言共享知识提升单语言域表现。
随着自然语言处理(NLP)的快速发展,大型语言模型(LLMs)已成为该领域的一个重要里程碑。与早期的语言模型(如GloVe [1])相比,LLMs在广泛的NLP任务中表现出更强的性能,包括机器翻译和问答 [2]、[3]。鉴于源代码具有与自然语言类似的结构和语义特征,研究人员已将LLMs扩展到与代码相关的应用中,如代码生成、摘要和翻译 [4]。面向代码的LLMs的出现进一步加速了向软件3.0的范式转变,即AI模型可以自主协助甚至主导软件工程过程的时代 [5]。尽管通用LLMs在零样本和少量样本泛化方面表现出色,但它们的性能通常仍低于针对特定任务进行微调的模型 [6]。例如,像CodeX这样的模型在SQL这样的特定领域编程语言上表现不佳,因为SQL包含多种方言,而通用LLMs通常没有经过有效区分这些方言的训练 [7]。在实践中,基于领域相关数据的微调对于最大化LLMs在专业软件开发场景中的效用至关重要。然而,这一过程的有效性取决于能否获得高质量、特定于任务的训练数据。