集合计算是优化、控制和机器学习的基础,特别是在分析由受限映射定义的集合边界时。准确的边界计算对于极端行为估计、安全验证和控制系统分析至关重要(Kim, 2008; Lin, Zhang, 2023; Wang, Althoff, 2023; Wu, Nie, Turitsyn, Blumsack, 2019)。在许多实际场景中,感兴趣的集合是凸集,这为边界分析提供了坚实的理论基础:凸集的边界可以通过其支撑函数来表征,任何给定方向上的极值点可以通过解决凸优化问题获得,而Karush–Kuhn–Tucker(KKT)条件既是必要的也是充分的。尽管具有这些有利属性,但在实践中计算凸集边界仍然具有挑战性,特别是在高维空间或复杂约束结构下,可能会出现复杂的几何形状。
边界估计通常需要解决大量的参数化优化问题,例如,通过沿多个方向最大化支撑函数。随着维度的增加或约束结构的复杂化,相关的计算成本会迅速增长,使得大规模问题的精确边界计算变得不可行。此外,实际实现还受到可扩展性和数值精度问题的限制。经典的集合近似方法,包括多面体、椭球体和zonotope表示(Balashov, Repov?, 2011; Dudov, Osiptsev, 2016; Kamenev, Pospelov, 2012),在低维或结构良好的环境中可能是有效的;然而,它们通常会受到维数灾难的影响,在更高维度下计算成本呈指数级增长,近似精度也会下降。
为了解决这些限制,最近的研究探索了基于学习的方法来高效解决参数化的受限优化问题。受神经动力学启发的求解器,包括分布式ADMM方案(He et al., 2019)、固定时间投影网络(He et al., 2021)和惯性原始-对偶投影方法(Zhao et al., 2025),利用凸性、约束结构和对偶性来确保可行性并加速收敛。同时,学习优化(L2O)方法旨在直接从数据中学习解映射,避免重复优化并实现可扩展的推理(Chen, Liu, Yin, 2024; Tang, Yao, 2024)。多目标优化的最新进展进一步表明,超网络和基于变压器的模型可以高效近似结构化的解集,如Pareto前沿(Tuan, Dung, Thang, 2024a; Tuan, Hoang, Le, Thang, 2024b)。这些发展表明,基于学习的、考虑约束的策略非常适合计算凸集边界,尤其是在出现类似参数化优化结构的情况下。
在这项工作中,我们提出了一个原理性的深度学习框架——Kolmogorov-Arnold网络增强型原始-对偶神经网络(KAN-PDNN),用于近似通过受限优化隐式定义的凸集边界。我们的关键思想是将边界计算任务重新构建为一个参数化优化问题,并使用一对耦合的神经网络:一个原始网络用于参数化候选边界点,另一个对偶网络通过Karush-Kuhn-Tucker(KKT)条件来确保可行性。这两个网络共同训练,以确保几何精度和约束满足。这种表述提供了一种理论上有根据的方法来进行边界推断,能够在不同的方向查询下高效预测边界点,并为传统的基于优化的方法提供了一种可扩展的替代方案。
本文的主要贡献总结如下:
•提出了一种用于凸集边界计算的深度学习框架KAN-PDNN。通过将KKT条件嵌入损失函数,它在用单次前向传播替换重复优化的同时确保了最优性,从而实现了快速且可扩展的边界预测。
•开发了一种自适应方向重采样策略,在训练过程中动态选择输入方向。这种方法确保了均匀的边界覆盖,并在具有尖锐曲率或各向异性结构的区域提高了近似精度。
•在凸集计算和可达集估计任务上验证了KAN-PDNN的有效性。实验结果表明,与传统基于优化的方法相比,在大规模、高维问题中具有显著的计算效率提升。