传统的约束优化问题(COPs)的算法设计通常依赖于手工设计的进化操作符(Ozkaya, Kahraman, Duman, Guvenc, 2023; Qiao, Liang, Yu, Wang, Qu, Yue, Guo, 2023; Runarsson, Yao, 2000; Zuo, Gong, Wang, Ye, Zeng, Meng, 2023)和约束处理技术(Peng, Xu, Qian, Dong, Li, Wu, 2023; Rahimi, Gandomi, Chen, Mezura-Montes, 2023; Wang, Liu, Qiu, Zhang, 2024a)。这种方法通常依赖于专家知识、试错和大量的人力,导致算法设计的成本高且适应性低。因此,大型语言模型(LLMs)辅助的算法设计受到了广泛关注(Lange, Tian, Tang, 2024; Liu, Yao, Guo, Yang, Zhao, Lin, Tong, Yuan, Lu, Wang, et al., 2024c; Liu, Chen, Qu, Tang, Ong, 2024c; Romera-Paredes, Barekatain, Novikov, Balog, Kumar, Dupont, Ruiz, Ellenberg, Wang, Fawzi, et al., 2024)。Eureka(Ma et al., 2023)和Auto mc-reward(Li et al., 2024a)利用LLMs为强化学习(RL)设计奖励函数。GeminiDE(Zhong, Zhang, Yu, & Munetomo, 2024b)和EvoPrompting(Chen, Dohan, & So, 2023)在超参数优化方面进行了尝试。EoH(Liu et al., 2024a)、LLMOA(Zhong, Hussien, Yu, & Munetomo, 2025)、LLLaMEA(van Stein & B?ck, 2024)、ReEvo(Ye et al., 2024)等也早期尝试利用LLMs进行启发式和元启发式算法设计。
尽管LLMs在超启发式优化方面展示了出色的能力,但它们在约束优化进化算法(COEAs)的自动化设计中的应用仍然处于初级阶段(Wang, Liu, Chen, & Tan, 2024b)。此外,由于LLM的幻觉效应和token限制,生成完全正确且有效的算法代码仍然具有挑战性。
为了解决这些问题,我们提出了LMCOEA,它利用LLM在元进化中自动设计COEA的组件,而基础进化用于评估生成的组件。具体来说,LMCOEA在Meta黑盒优化(MetaBBO)框架内通过多个基准COPs自我学习知识。这项研究有三个主要贡献:(1)利用LLM作为元级别的进化策略来生成基础级别的COEA更新规则,无需人工干预;(2)展示了自动发现新颖且有效算法组件的潜力;(3)实证验证表明其性能优于现有的手工设计方法。表1展示了两种经典的LLM辅助算法设计方法(EoH Liu et al., 2024a和FunSearch Romera-Paredes et al., 2024)与提出的LMCOEA之间的核心差异。
本文的其余部分安排如下:第2节讨论相关工作,第3节详细介绍所提出的框架,第4节展示实验结果,第5节总结更广泛的意义和未来方向。