
-
生物通官微
陪你抓住生命科技
跳动的脉搏
大型语言模型的高效函数编排
【字体: 大 中 小 】 时间:2026年02月13日 来源:IEEE Transactions on Software Engineering 5.6
编辑推荐:
LLMOrch框架通过分配处理器和模型依赖关系(定义-使用、互斥)优化并行函数调用执行,在I/O密集型任务中效率提升,计算密集型任务中表现更优,性能与处理器数量成线性关系。
大型语言模型(LLMs)[1]、[2]、[3]的最新进展催生了诸如AutoGPT [4]、SWE-agent [5]和Agentless [6]等AI代理的开发。除了编程任务外,由LLM驱动的代理还在解决复杂实际问题方面取得了进展,包括科学计算[7]、[8]、软件工程[9]、[10]、蛋白质工程[11]和细胞研究[13]等领域。