利用机器学习实现的高效片上系统(SoC)功耗估算

《IEEE Transactions on Very Large Scale Integration (VLSI) Systems》:Efficient SoC Power Estimation With Machine Learning

【字体: 时间:2026年02月27日 来源:IEEE Transactions on Very Large Scale Integration (VLSI) Systems 3.1

编辑推荐:

  本文提出基于机器学习的ML-Power功耗估算框架,通过功率代理信号解决RTL模拟和功耗模型评估的关键瓶颈,并扩展至SoC设计。框架包含三个组件:PACE加速模拟,SCOPE优化代理选择与模型训练,RECAL处理可配置IP块。实验表明ML-Power在ARM和RISC-V SoC上误差低于10%,训练配置少且速度提升显著。

  

摘要:

我们提出了“Machine Learning Power”(ML-Power)这一基于机器学习的框架,它是首个能够:1) 通过解决RTL仿真和功耗模型评估这两个关键瓶颈来加速端到端RTL功耗估算的框架;2) 将基于机器学习的功耗模型扩展到包含可配置知识产权(IP)模块的系统级芯片(SoCs)的框架。ML-Power利用一组称为“功耗代理”(power proxies)的少量内部信号,预测每个SoC模块的功耗随时间的变化情况。该框架由三个组件构成:基于机器学习的功耗代理活动估算(PACE),该组件利用时空相关性来选择合适的功耗代理;基于机器学习的功耗模型评估(SCOPE);以及基于主动学习(RECAL)的代表性配置选择机制。PACE训练一个序列到序列(seq2seq)的机器学习模型,将事务级执行轨迹转换为功耗代理信号的周期级轨迹,从而可以使用速度更快的仿真模型替代RTL仿真。SCOPE为SoC中的每个模块选择合适的功耗代理并训练相应的功耗模型。RECAL通过主动学习机制选择一组具有代表性的配置,这些配置用于训练一个能够覆盖整个设计空间的统一功耗模型。我们在ARM SSE-300 SoC和两个基于RISC-V的SoC上对ML-Power进行了测试。与现有的最先进的基于机器学习的功耗估算框架相比,SCOPE训练功耗模型的速度提高了约65倍,所需功耗代理的数量减少了40%,且估算误差降低了2%。对于这两个包含可配置IP模块的RISC-V SoC,ML-Power仅使用10–14种训练配置,就能在整个设计空间内将每周期功耗的估算误差控制在10%以内。此外,ML-Power在推理时间上的加速效果达到了商用RTL功耗估算工具的约300倍,同时每周期功耗的估算误差仍保持在7%以下。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号