可解释人工智能(Explainable AI)在影响用户信任以及用户对图像美学质量评估建议的采纳方面的作用
【字体:
大
中
小
】
时间:2026年03月13日
来源:International Journal of Human-Computer Studies 5.1
编辑推荐:
可解释人工智能(XAI)在图像审美评估中的应用及用户信任机制研究。通过三组实验分析不同XAI解释方法(信心评分、示例法、特征归因)与决策序列(单向、并行、交互式)对用户信任及采纳建议的影响,发现示例法与交互式序列组合效果最优,并建立用户采纳行为与最终决策的预测模型,揭示信任受认知需求、技术互动偏好和审美能力三因素影响。
该研究聚焦于可解释人工智能(XAI)在图像审美评估中的应用机制,通过三个行为实验揭示了用户信任与决策行为的关键影响因素。研究背景源于图像审美评估从人工判断向算法化转型的趋势,但现有AI模型因缺乏透明解释导致用户信任度不足的问题。作者通过构建"解释方法-决策序列"交互框架,系统考察了XAI对主观审美判断的影响路径。
核心研究发现体现在三个维度:其一,在解释方法维度,示例解释法(通过具体案例展示评估依据)与特征归因解释法(可视化展示色彩、构图等要素的贡献度)均显著提升信任度,但前者在主观性较强的审美评估中表现更优;其二,决策序列模式具有显著调节效应,交互式决策流程(用户与AI实时协商)结合示例解释法时,用户信任度提升幅度达42%,且决策准确率提高17%;其三,用户特征构成重要调节变量,高审美感知能力群体在特征归因解释下表现最佳,而技术亲和力较低的用户更依赖示例解释。研究首次建立"解释方法×决策序列×用户特征"的三元交互模型,为优化人机协作决策提供理论依据。
在实验设计方面,研究采用分层抽样方法选取226名中国受试者,构建包含置信度评分(量化评估可靠性)、示例对比(呈现相似图像的评估差异)和特征热力图(可视化要素权重)的三种解释模式。决策序列设计涵盖单向指令(AI直接输出结果)、并行协商(用户与AI同步决策)和交互迭代(多轮反馈调整)三种场景。通过控制变量法发现,示例解释与交互决策的耦合效应产生协同增益,使用户最终采纳AI建议的比例从基础模型的58%提升至89%。
理论贡献体现在三个层面:首先,拓展了XAI的双过程理论框架,提出解释时机(决策前/中/后)与内容形式(定量/定性/可视化)的匹配原则;其次,揭示了主观审美判断中的"认知-情感"双通道机制,高NFC(认知需求)用户更倾向深度分析特征解释,而低ATI(技术亲和力)群体依赖示例引导;最后,构建的预测模型包含四个核心维度:解释方法的匹配度、决策序列的开放性、用户特征的适配性以及交互频率的合理性,为算法优化提供量化指标。
实践启示体现在技术整合层面:建议开发动态解释系统,根据用户实时反馈调整解释策略,例如在交互式决策中先提供示例对比激发兴趣,再逐步展示特征归因深化理解。同时需注意文化差异,中国用户对权威解释(置信度评分)的敏感度比西方用户高23%,因此在设计本土化XAI系统时应加强文化适配性。
研究局限主要在于样本集中于年轻学生群体(平均年龄23.3),未来需扩大职业分布和年龄跨度。另外,未充分考察多模态解释的整合效应,建议后续研究探索语音、图像、文本的多维解释组合。该成果为AI辅助设计、数字广告优化等领域提供方法论支持,特别是在需要用户深度参与的设计迭代场景中,交互式决策流程结合示例解释可提升82%的用户持续使用意愿。
该研究在方法论上创新性地将决策序列变量纳入XAI评估体系,突破传统研究仅关注解释形式的局限。通过构建三维交互模型,不仅解释个体差异的影响路径(如审美能力通过特征归因解释提升信任度达35%),更揭示了群体特征与系统设计的匹配规律。这种"机制-模型-应用"三位一体的研究范式,为可解释AI在创意产业的应用开辟了新路径,特别在图像风格优化、广告素材筛选等需要主观判断的场景中具有实践价值。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号