强化学习方法在智能交通灯控制中的自适应行为选择策略

《IEEE Transactions on Intelligent Transportation Systems》:Adaptive Action Selection Strategy of Reinforcement Learning Approach for Intelligent Traffic Light Control

【字体: 时间:2026年01月26日 来源:IEEE Transactions on Intelligent Transportation Systems 8.4

编辑推荐:

  交通信号作为城市交通拥堵的重要诱因,其控制效率可通过强化学习(RL)提升。本文提出自适应ε-贪心策略,动态调整探索率以平衡探索与利用,无需调参且泛化性更强。实验表明该方法在独立路口显著降低交通延迟,并有效探索状态空间。

  

摘要:

交通信号灯是城市交通网络中的常见瓶颈,也是导致交通拥堵的主要因素。通过采用自适应学习策略(如强化学习(RL)可以提高其运行效率,强化学习能够捕捉信号控制行为对交通动态的影响。在训练用于交通信号控制的RL模型时,一个关键挑战是在探索与利用之间取得有效平衡:过度探索可能会加剧拥堵,而过度利用则可能导致模型收敛到次优策略。大多数现有的RL方法采用的探索策略包括ε-贪婪算法、衰减ε-贪婪算法或基于置信上界的算法。这些策略通常依赖于需要针对具体问题进行调整的超参数,这不仅增加了训练时间,还限制了模型在不同交通场景下的泛化能力。在本研究中,我们将这些传统策略与最近在RL文献中提出的一种自适应ε-贪婪算法进行了比较。与传统方法不同,这种自适应ε-贪婪算法会根据智能体在每个状态下的学习进度动态调整探索率。该算法实现简单,无需调整超参数,并且具有更好的泛化能力。在孤立交叉口的实验结果表明,自适应ε-贪婪算法能够在不同需求水平下显著减少交通延迟。进一步的评估表明,该方法能够更全面地探索状态空间,从而提升策略性能。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号