基于人机双向信任建模的智能汽车共享控制框架:提升安全性与协作一致性

《Advanced Intelligent Systems》:Human-Machine Mutual Trust Based Shared Control Framework for Intelligent Vehicles

【字体: 时间:2026年01月17日 来源:Advanced Intelligent Systems 6.1

编辑推荐:

  本文提出了一种创新的人机双向信任驱动共享控制框架,旨在解决现有方法忽略心理因素(如信任)导致的鲁棒性不足问题。该框架通过GRU和贝叶斯更新动态评估人机意图差异与驾驶员技能(Human-to-Machine Trust),并融合长短期驾驶能力(Game-Theoretic机制)生成机器对人的信任(Machine-to-Human Trust)。最终,利用模糊规则将双向信任映射为控制权分配,并集成至模型预测控制(MPC)中生成协同指令。实验表明,该策略显著提升了人机协作的安全性与一致性。

  
摘要
由于高阶自动驾驶的技术瓶颈,人机共驾将在未来长期存在。共享控制通过自适应分配控制权成为研究热点,但现有方法多基于理性博弈论,忽视了信任等心理因素,限制了其在动态环境中的鲁棒性。本文开发了一种由人机双向信任建模驱动的共享控制框架。
1 引言
人机共享控制旨在结合驾驶员与自动驾驶系统的优势,但人类行为的非理性特征使单纯博弈论方法面临挑战。信任作为关键心理变量,近年来被引入共享控制研究,形成了人信任机、机信任人及双向信任三类方向。然而,现有模型存在个体适应性差、评估维度单一等问题。本文提出双向信任驱动框架,通过动态建模与融合提升协作效能。
2 相关工作
2.1 人机共享控制
现有方法主要包括加权求和、优化控制(如MPC)及博弈论框架。加权法依赖启发式权重设计;优化法对模型精度要求高;博弈论假设理性决策者,均未充分处理心理因素。
2.2 信任驱动共享控制
人信任机模型通过性能差异或模拟学习构建;机信任人模型基于意图识别、能力评估或状态监测;双向信任尝试结合认知过程。但现有方法常忽略个体差异与评估不确定性,导致信任估计不准。
3 方法论
3.1 人信任机估计模型
  • 意图差异预测:采用GRU编码器预测驾驶员与系统的转向角,计算意图差异因子,初步生成信任值。
  • 驾驶技能评估:基于贝叶斯框架更新五级技能水平(极差至极优)的概率分布,Dirichlet先验与观测数据结合动态调整后验参数。
  • 信任修正:根据技能水平最大值生成修正因子,调整初始信任值,实现个性化估计。
3.2 机信任人估计模型
  • 驾驶状态检测:采用ResNet-18对驾驶员图像分类,输出分心程度概率向量。
  • 能力融合:通过博弈论机制优化权重,融合长期技能与短期状态概率向量,得到综合驾驶能力评分。
  • 信任量化:引入信息熵度量评估不确定性,生成修正因子,结合能力期望值输出机信任人值。
3.3 双向信任驱动共享控制器
  • 模糊映射:将双向信任值通过三角隶属函数模糊化,基于Mamdani规则表(如低人信任+高机信任→高机器权)生成控制权系数λ。
  • MPC集成:以λ加权人机指令,构建多目标优化函数(轨迹跟踪、转向一致性、平滑性),结合车辆动力学约束求解共享控制命令。
4 实验验证
4.1 实验设置
25名驾驶员在SILAB硬件在环平台测试,场景包括紧急避障、连续避障与动态超车。
4.2 人信任机模型验证
与仅基于意图差异的基线相比,引入技能修正后,平均绝对误差降低36.5%,极端技能组(C1、C5)提升显著(误差降幅超48%)。
4.3 机信任人模型验证
驾驶行为检测模型在自建数据集上精度超84%。博弈论融合法(RMSE=0.175)优于固定权重法(RMSE=0.289)及无熵修正法(RMSE=0.355)。
4.4 共享控制策略对比
与固定权重或风险驱动策略相比,信任驱动策略在三种场景下的人机转向一致性比率均超70%(最高75.9%),轨迹更平滑且碰撞次数减少。典型冲突案例中,信任策略能自适应分配权责,避免指令抵消或安全边际不足。
5 结论
本文框架通过双向信任建模与动态权责分配,提升了人机共驾的安全性与一致性。未来将融合多模态信息并开展实车验证。
相关新闻
生物通微信公众号
微信
新浪微博

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号