重新审视可解释人工智能:基于显著性解释与用户理解之间的差距——以目标检测模型为例

《International Journal of Human-Computer Studies》:Rethinking Explainable AI: The Gap Between Saliency-Based Explanation and User Understanding for Object Detection Models

【字体: 时间:2026年02月22日 来源:International Journal of Human-Computer Studies 5.1

编辑推荐:

  可解释AI在目标检测中的应用研究,通过设计特征、对象、图像三级评估任务,发现基于注意力的解释方法无法提升用户对目标检测模型的理解,而仅展示检测结果能增强部分低级理解。眼动分析表明用户与AI策略相似性影响理解程度,需开发更有效的XAI方法。

  
邱若曦|刘国阳|张金娣|萧珍妮·许文慧
香港科技大学九龙校区,香港

摘要

基于显著性的可解释AI(XAI)方法常被用来解释AI模型的行为,尽管关于这些方法是否确实能增强用户理解力的研究还较为有限。在这项研究中,我们提出了一组任务,以系统和客观地评估用户在特征层、对象层和图像层对对象检测模型的整体理解。我们发现,虽然向用户展示AI的检测结果、未检测到对象的情况以及误报信息可以提升特征层和某些对象层上的理解,但基于显著性的解释并未提供额外的帮助,也无法引导用户关注相关特征。同时,仅展示AI的检测结果、未检测到对象的情况以及误报信息本身,也无法帮助用户区分AI的正确判断与错误判断,也无法提升图像层上的理解。在图像层上,参与者中认为AI会按照他们的预期方式运行的策略似乎是预测AI行为的最佳方法,因为任何试图修正这种假设的尝试都会导致预测结果与AI实际行为的进一步偏差。因此,有必要开发更有效的XAI方法,尤其是针对对象检测模型。我们的眼动分析表明,采用与AI相似策略的参与者,其表现也往往更接近AI的行为,这表明我们可以指导用户使用自己的策略作为参考点来预测AI的行为。此外,参与者的眼动一致性和其与AI的注意力策略相似性,与用户的不同理解层面相关,这表明眼动数据可以作为非侵入性的指标,用于未来XAI方法中监测用户的理解情况。

引言

近年来,由于深度学习方法的进步,人工智能(AI)模型的性能有了显著提升,并被应用于日益多样的领域,包括那些输出可能产生严重影响的关键系统。然而,这些模型往往像“黑箱”一样,其内部决策过程难以被用户甚至开发者理解(Lillicrap & Kording, 2019)。为了解决这个问题,人们提出了各种可解释AI(XAI)方法。对于计算机视觉模型,常用的基于显著性的XAI方法会突出显示对AI决策重要的像素(Petsiuk et al., 2018; Selvaraju et al., 2017)。这些方法生成的解释质量(即显著性图)通常通过其与模型的吻合度来评估,这种吻合度是通过改变被突出显示的像素后模型输出的变化来衡量的(Samek et al., 2016; 参见Adebayo et al., 2018)。
然而,像吻合度这样的计算指标并不能反映实际用户从解释中感知和学习AI模型的程度。最近的研究开始考虑关注用户心理状态的认知指标。例如,Hoffman等人(2023)提出了一个包含认知指标的概念模型,这些指标在解释过程的不同阶段进行评估,从解释的合理性以及用户在接受解释时的满意度,到用户处理解释时的理解程度和好奇心,最后到用户将所学应用于与AI系统交互时的信任度和表现。Hsiao和Ngai等人(2021)进一步考虑了每种认知指标的不同主观和客观衡量方法。他们指出,这两种类型的衡量方法在评估心理构造时往往不一致,因为某些心理过程超出了人们的意识范围,难以通过自我报告的测量方法来评估,因此尽可能使用客观指标是必要的。
在这些认知指标中,特别重要的是考虑用户的理解程度,因为它直接反映了用户在接收解释时是否形成了对AI系统的可靠心理模型。实际上,已有许多研究探讨了解释是否以及如何帮助用户更好地理解AI系统(Brachman et al., 2023; Kulesza et al., 2015)。此外,当人类提供解释时,他们通常会推断学习者的心理状态以识别知识缺口并尝试缩小这一差距(Olson & Bruner, 1996; Strauss & Shilony, 1994),这种能力被称为“心智理论”(ToM,即通过归因于他人的心理状态来理解他人行为的能力)。为了提供人类可理解的解释,XAI系统应具备类似的能力来监测用户当前的理解水平。基于这一理念,Hsiao和Chan(2023)提出了一个基于心智理论的XAI框架,该框架提供以用户为中心的解释,并促进人机之间的相互理解。在这个框架中,XAI系统需要了解人类用户如何执行任务的心理模型,以便将其策略与AI的策略进行比较,突出差异,帮助用户更好地理解AI的策略。此外,XAI系统还需要推断用户对AI的当前理解程度,以便提供后续解释,帮助用户更准确地构建对AI的心理模型。
鉴于此,在当前研究中,我们旨在开发一套全面的用户理解度衡量指标,并调查常用的基于显著性的XAI方法是否确实能提升用户对计算机视觉模型的理解。虽然之前有一些关于图像分类模型用户理解度的研究(例如Alqaraawi et al., 2020; Balayn et al., 2022;综述见Müller, 2024),但涉及对象识别和定位的对象检测相关研究仍然有限(Zhao & Chan, 2023)。对象检测在自动驾驶和医疗诊断等关键系统中起着重要作用,这些系统的透明度至关重要。因此,我们重点研究了基于显著性的解释如何帮助用户更好地理解驾驶场景中的对象检测模型,并使用了实时性能较高的Yolo-v5s模型(Jocher, 2020)。在评估用户理解度时,我们认识到仅使用自我报告的指标是不够的,因为用户常常高估自己对AI系统的理解程度,尤其是在要求他们从局部、实例级的解释中构建更高层次的系统级理解时(Chromik et al., 2021)。实际上,对解释对象的局部理解可能无法推广到对系统整体工作原理的全面理解。因此,我们旨在开发一套能够客观评估用户对对象检测模型整体理解度的任务,同时包括自我报告的指标来测试不同指标之间的一致性。在整体理解中,我们进一步区分了三个层次:(1)特征层,即了解哪些特征会影响系统的决策;(2)对象层,即了解系统处理不同对象的能力;(3)图像层,即了解系统在不同图像上的表现。我们使用这些任务在训练阶段前后评估参与者对对象检测模型的理解程度,期间他们看到了带有或没有显著性图解释的模型输出。先前的研究表明,参与者对视觉刺激的理解可以通过他们的目光移动行为来反映(Gegenfurtner et al., 2011; Kruger and Steyn, 2014; Zheng et al., 2022)。因此,除了行为表现指标外,我们还利用眼动追踪来探索使用眼动行为作为评估用户当前理解程度的替代性、非侵入性指标的可能性。具体来说,我们使用隐马尔可夫模型(EMHMM;Chuk et al., 2014)进行眼动分析,通过将个体眼动模式与通过聚类发现的代表性注意力策略进行比较来建模和量化,并利用个体隐马尔可夫模型(HMMs)的熵来量化眼动一致性。我们还根据参与者的注视点生成了注意力热图,并将其与XAI生成的显著性图进行比较,从而直接衡量每个参与者的注意力策略与AI策略的相似性。
鉴于先前的研究发现显著性图可能有助于特征层理解,但对图像分类的更高层次理解影响有限(Alqaraawi et al., 2020),我们假设对象检测的情况也会类似。与我们的假设相反,我们发现显著性图并未在提升用户理解方面提供额外帮助,除了简单地提供AI的检测结果、未检测到对象的情况以及误报信息之外。此外,仅展示AI的检测结果、未检测到对象的情况以及误报信息本身,足以提升某些特征层和对象层的理解,但无法提升更高的图像层理解。因此,有必要考虑其他XAI方法,以确保用户能够根据解释构建出对对象检测AI模型的可靠心理模型。总体而言,我们的研究指出了当前XAI研究中的空白,特别是针对对象检测AI的研究,并探索了开发能够更好提升用户理解的XAI方法的潜在方向。

部分摘录

基于显著性的XAI方法

用于计算机视觉模型的基于显著性的XAI方法大致可以分为两类:基于梯度的方法和基于扰动的方法。基于梯度的方法计算输出类别分数相对于每个输入特征的梯度,这表示模型输出对输入特征变化的敏感程度;而基于扰动的方法则通过扰动输入并观察输出的变化来直接测量输入特征与输出之间的因果关系。

方法

使用前向模拟和反事实模拟任务来评估参与者对对象检测AI模型在不同层次上的理解。理解度在两个时间点进行测量:训练阶段之前和之后,期间他们看到了AI在不同输入图像上的检测结果、未检测到对象的情况以及误报信息,这些图像可能带有或没有显著性图解释。因此,设计中包含了参与者内部的变量(训练前 vs. 训练后)和参与者之间的变量。

有无显著性图训练对用户理解的影响

对于图像层理解,时间点(训练前 vs. 训练后)对参与者预测的AI性能没有显著影响,无论是召回率(F(1, 66) = 0.61, p = 0.439, η2_p = 0.009,图5A)还是精确度(F(1, 66) = 0.86, p = 0.375, η2_p = 0.013,图5B)。换句话说,训练并没有帮助他们更好地理解AI在不同图像上的表现。

讨论

在这项研究中,我们提出了一组任务来客观测量用户对对象检测模型的理解,并应用这些测试来系统地调查基于显著性的解释是否能够提升用户对AI模型的整体理解。具体来说,我们使用了前向模拟,要求参与者点击他们认为AI会检测到的车辆;以及反事实模拟,参与者判断AI是否仍然能够检测到

结论

我们开发了一组任务,可以客观且分别测量用户在特征层、对象层和图像层对对象检测模型的整体理解。这些测量方法非常重要,因为主观测量可能无法准确捕捉用户对AI的实际理解,而且不同的理解方面之间可能存在差异。通过使用这些任务,我们发现基于显著性的解释并未提升用户对对象检测模型的理解。

未引用的参考文献

Lai et al., 2021, Qi et al., 2024, Samek et al., 2017

CRediT作者贡献声明

邱若曦:撰写——原始草稿,形式分析,可视化,调查,数据整理,方法论,概念化。刘国阳:软件开发,形式分析,数据整理,方法论。张金娣:项目管理,资源获取,资金筹措。萧珍妮·许文慧:撰写——审稿与编辑,监督,方法论,概念化,资源获取,资金筹措。

CRediT作者贡献声明

邱若曦:撰写——原始草稿,可视化,方法论,调查,形式分析,数据整理,概念化。刘国阳:软件开发,方法论,形式分析,数据整理。张金娣:资源管理,项目管理,资金筹措。萧珍妮·许文慧:撰写——审稿与编辑,监督,资源管理,方法论,资金筹措,概念化。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号