利用机器学习实现的高效片上系统(SoC)功耗估算
《IEEE Transactions on Very Large Scale Integration (VLSI) Systems》:Efficient SoC Power Estimation With Machine Learning
【字体:
大
中
小
】
时间:2026年02月27日
来源:IEEE Transactions on Very Large Scale Integration (VLSI) Systems 3.1
编辑推荐:
本文提出基于机器学习的ML-Power功耗估算框架,通过功率代理信号解决RTL模拟和功耗模型评估的关键瓶颈,并扩展至SoC设计。框架包含三个组件:PACE加速模拟,SCOPE优化代理选择与模型训练,RECAL处理可配置IP块。实验表明ML-Power在ARM和RISC-V SoC上误差低于10%,训练配置少且速度提升显著。
摘要:
我们提出了“Machine Learning Power”(ML-Power)这一基于机器学习的框架,它是首个能够:1) 通过解决RTL仿真和功耗模型评估这两个关键瓶颈来加速端到端RTL功耗估算的框架;2) 将基于机器学习的功耗模型扩展到包含可配置知识产权(IP)模块的系统级芯片(SoCs)的框架。ML-Power利用一组称为“功耗代理”(power proxies)的少量内部信号,预测每个SoC模块的功耗随时间的变化情况。该框架由三个组件构成:基于机器学习的功耗代理活动估算(PACE),该组件利用时空相关性来选择合适的功耗代理;基于机器学习的功耗模型评估(SCOPE);以及基于主动学习(RECAL)的代表性配置选择机制。PACE训练一个序列到序列(seq2seq)的机器学习模型,将事务级执行轨迹转换为功耗代理信号的周期级轨迹,从而可以使用速度更快的仿真模型替代RTL仿真。SCOPE为SoC中的每个模块选择合适的功耗代理并训练相应的功耗模型。RECAL通过主动学习机制选择一组具有代表性的配置,这些配置用于训练一个能够覆盖整个设计空间的统一功耗模型。我们在ARM SSE-300 SoC和两个基于RISC-V的SoC上对ML-Power进行了测试。与现有的最先进的基于机器学习的功耗估算框架相比,SCOPE训练功耗模型的速度提高了约65倍,所需功耗代理的数量减少了40%,且估算误差降低了2%。对于这两个包含可配置IP模块的RISC-V SoC,ML-Power仅使用10–14种训练配置,就能在整个设计空间内将每周期功耗的估算误差控制在10%以内。此外,ML-Power在推理时间上的加速效果达到了商用RTL功耗估算工具的约300倍,同时每周期功耗的估算误差仍保持在7%以下。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号