在增强型人工智能医疗系统中建立信任:人工智能可解释性及数据隐私在患者接受人工智能辅助诊断中的作用

《International Journal of Information Management》:Configuring trust in AI-augmented healthcare: The role of AI interpretability and data privacy in patient adoption of AI-assisted diagnosis

【字体: 时间:2026年01月27日 来源:International Journal of Information Management 27

编辑推荐:

  在线医疗平台中,患者如何整合AI辅助诊断与传统医生咨询,研究构建UTAUT2与信息系统成功模型整合框架,揭示数字健康素养和服务倾向通过AI可解释性和数据隐私感知影响采用意图,并发现慢性病场景下AI可解释性对采用意图的促进作用更强。

  
向宇边|易同陈|杨阿波
西南大学国家治理学院,中国重庆市北碚区天生路2号,邮编400715

摘要

人工智能(AI)在医疗领域的整合正在改变传统的医患关系,尤其是在在线医疗平台上。本研究探讨了患者如何在传统医生咨询的同时,将AI辅助诊断纳入其医疗决策中。基于“技术接受与使用统一理论2”(UTAUT2)和“信息系统成功模型”,构建了一个综合理论框架,以考察数字健康素养和数字服务倾向如何通过AI的可解释性和数据隐私感知来影响AI辅助诊断的采用。采用顺序混合方法,结合定性访谈(n=30)和来自中国在线医疗平台用户的定量调查数据(n=753),来验证所提出的模型,并确定疾病类型是一个重要的情境调节因素。研究结果表明,AI的可解释性和数据隐私感知与用户特征和采用意图之间的关系具有中介作用,而在慢性病情境下这种关系比急性病情况下更为显著。本研究通过将个体差异、系统特征和情境因素整合到一个综合框架中,推进了对医疗AI采用的理论理解。研究结果为平台开发者提供了实施特定情境设计策略的实用见解,为医疗服务提供者提供了开发定制AI引入计划的建议,也为政策制定者提供了根据疾病情境制定差异化监管指南的依据。这些贡献有助于弥合AI辅助医疗决策中的“信任差距”。

引言

AI辅助诊断正从试点阶段走向日常患者接触点,尤其是在在线医疗平台(OHCs)上(Turchi等人,2024年)。患者是否采纳算法推荐现在对于临床安全、访问公平性、工作流程整合以及数字健康生态系统的监管和商业可行性至关重要(Shamim等人,2025年)。因此,理解患者如何在继续依赖临床专家意见的同时建立对AI生成推荐的信任,是理论和实践的首要问题(Johnson等人,2021年;Manickam等人,2022年)。
然而,解释患者接受度和信任度的学术研究仍然分散。以技术为中心的模型(例如TAM/UTAUT/UTAUT2)阐明了感知到的有用性和易用性,但通常没有具体说明患者在健康情境下解释AI输出的能力(Lee等人,2025年;Rouidi等人,2022年)。以信任为中心的研究明确了信任的前提条件,但往往忽略了AI系统的属性,如黑箱 opaque 和隐私风险,这些在医疗领域非常突出(Shin,2021年)。以情境为中心的研究强调了特定情境下的动态,但缺乏一个统一的解释,即患者是谁(能力、数字倾向)与AI是什么(可解释性、隐私保障)以及它在何处使用(例如,在OHCs上的慢性病与急性病护理)之间的关系(Rashid & Sharma,2025年)。本研究通过在一个具有情境意识的框架中整合患者能力和对AI特定质量的感知,解决了这一差距。
实证研究的重点是中国OHCs中面向患者的AI诊断功能的主要用户——患者。中国OHCs的情境提供了几个独特的特征,这些特征影响了我们的研究设计和解释。首先,中国的监管框架要求AI诊断输出必须有人类临床医生的监督,确保AI作为决策支持工具而不是自主诊断代理。其次,中国OHCs已经实现了大规模整合,如WeDoctor、平安好医生和阿里健康等平台服务了数亿用户,并提供包括AI辅助分诊、处方管理和慢性病监测在内的端到端医疗服务(Zhang等人,2021年)。第三,中国的文化导向,以高度集体主义、长期导向和更尊重机构指导为特征(Hofstede,2011年),可能会影响患者对AI辅助医疗的信任构建。为了避免将接受度与信任度混淆,本研究区分了采用AI辅助诊断的意图和对AI推荐的信任,将信任度的变化概念化为一种再平衡或组合,而不是二元的转变。在这个信任组合框架中,患者根据个人能力、AI质量和情境因素,在不同程度上结合专业判断和算法指导(Knop等人,2022年)。三个构建支撑了这个框架:对AI技术能力的信任(对能力的认知评估)、对包括平台提供者和人类监督在内的更广泛社会技术组合的信任(尽管存在不确定性,仍愿意表现出脆弱性),以及作为行为结果的采用意图(Mayer等人,1995年;Venkatesh等人,2012年)。关键的是,AI的采用反映了通过结合算法指导和人类专业知识来扩展信任组合,而不是将信任从临床医生重新分配给机器。
先前的研究在理解AI辅助医疗中的信任动态方面取得了重要进展。技术视角研究了准确性(Sherman & Nailer,2018年)、可解释性(Markus等人,2021年)和界面设计(Gaube等人,2021年)等特征如何影响对AI诊断工具的信任,主要针对临床医生。以用户为中心的研究探讨了患者方面的因素,包括健康素养(Nushi等人,2018年)和人口统计特征(Zhang & Dafoe,2019年)作为信任的前提条件。最近,机构视角研究了信任转移机制,探讨了对医疗机构(Bansal等人,2019年)或人类临床医生(Logg等人,2019年)的初始信任如何影响后续的AI信任形成。
然而,这些有价值的贡献主要采用了单一视角——要么关注技术特征,要么关注用户特征,要么关注机构情境——而没有系统地将这些维度整合到综合的采用框架中。三个关键限制仍然存在。首先,现有的整合努力主要将信任视为一个二元构建(信任AI或不信任AI),而不是探索患者如何在多个认知权威之间分配和配置信任(Logg等人,2019年)。其次,尽管研究承认情境依赖性(Jacovi等人,2021年),但很少有系统地研究临床意义上的情境因素如何调节AI系统特征与采用结果之间的关系。疾病特征、决策风险和可控性作为调节因素仍然研究不足。现有的调节因素分析主要关注用户人口统计特征,而不是护理情境维度(Barsha等人,2025年)。第三,研究信任转变的研究通常假设零和动态,即增加对AI的依赖必然意味着减少对人类专业知识的依赖。这种假设将信任视为一种必须从人类重新分配给机器的固定资源。初步的定性工作挑战了这一观点,表明患者可能会扩展而不是重新分配他们的信任组合。
从理论上讲,本研究通过强调领域特定的患者特征——数字健康素养(寻求、评估和应用数字健康信息的能力)和数字服务倾向(对数字服务的总体开放性)——扩展了UTAUT2。这些能力决定了患者是否能够理解AI输出并感到舒适地与之互动。本研究还调整了“信息系统成功模型”以适应医疗领域的AI,突出了两个与该领域信任特别相关的质量感知:AI的可解释性(系统以可理解的方式解释其推理的程度)和感知到的数据隐私(对敏感健康数据的保护措施的充分性)。本文提出的并测试的假设认为,AI特定的质量感知通过直接解决透明度和风险关切来调节患者能力和采用意图之间的关系,这些因素对于对高风险建议的信心至关重要(Albahri等人,2023年;Shin,2021年;Tsai等人,2021年)。
在OHCs上,慢性病管理通常涉及与AI工具的持续、数据密集型互动,这给了患者更多时间和动力来审查解释和数据实践。急性病场景则压缩了决策时间,可能更重视速度和可靠性而非透明度。因此,本研究考察了疾病类型(急性病与慢性病)作为可解释性和隐私与采用意图之间联系的调节因素(Wang & Wang,2024年)。此外,AI系统的可解释性和数据隐私保护也在用户决策过程中起着重要作用(Aldboush & Ferdous,2023年)。用户对AI推荐结果的理解程度以及对个人健康数据的安全感可能会影响他们使用这些推荐的意愿。这种情境差异反映了从“信任专家”到“信任AI”的复杂心理机制,但关于这一转变过程的系统研究仍然有限。
基于这些考虑,本研究提出了以下研究问题:

RQ1

数字健康素养和数字服务倾向如何影响患者对OHCs上AI辅助诊断的信任和采用意图?

RQ2

AI的可解释性和感知到的数据隐私是否调节了这些患者特征对采用意图的影响?

RQ3

疾病类型(急性病与慢性病)是否调节了这些中介关系?

RQ4

患者在OHC决策背景下如何配置对AI和临床专家的专业知识的信任,可解释性和隐私感知在这种配置中扮演了什么角色?
本研究的三项贡献如下。首先,信任组合框架为理解AI增强医疗中的患者决策提供了一个理论视角;虽然这一框架源于中国OHC用户的经验,但它通过强调互补的信任分配、条件性的透明度要求和持续的监督作为信任的促进因素,可能具有更广泛的概念价值,尽管具体配置可能因机构和文化情境而异。其次,实证证据表明,领域特定的患者能力(数字健康素养和数字服务倾向)通过可解释性和数据隐私的感知显著影响了AI的采用;虽然具体幅度反映了研究情境,但患者能力与AI系统质量相互作用的更广泛见解可能为超越中国OHCs的理论发展提供信息。第三,情境依赖的调节模式揭示了疾病类型(急性病与慢性病)如何不同地影响可解释性和隐私对采用的影响,强调了将AI采用研究置于临床有意义的情境中的重要性,而不是将其视为单一的。
本文的其余部分组织如下:第2节回顾了相关文献并构建了理论框架。第3节介绍了研究方法,第4节详细介绍了研究1的访谈信息和研究2中对理论模型的定量验证。第5节讨论了理论和实践意义,并总结了限制和未来的研究方向。第6节总结了本研究。

文献综述

关于医疗领域AI采用的先前研究揭示了几种未解决的紧张关系。首先,存在信任-性能悖论:尽管AI的准确性和性能一致地预测了采用(Gaube等人,2021年),但由于对透明度的担忧,患者可能不信任即使是高性能的系统(Markus等人,2021年)。仅技术性能似乎是不够的;信任可能同样取决于AI系统如何传达推理过程。然而,很少有系统地研究这两者之间的关系

方法论

采用顺序混合方法设计,首先通过定性探究来探索因素和关系以及情境细微差别,然后通过横断面调查来测试理论化的路径。选择这种设计是为了利用定性分析在构建理论方面的优势以及结构方程模型(SEM)在假设评估方面的优势。资格标准、招募程序、抽样

结果

本节展示了定性研究(研究1)和定量研究(研究2)的主要发现,遵循顺序混合方法设计的逻辑,首先呈现定性探索结果,然后是定量验证结果。

讨论

在呈现发现之前,需要澄清三个核心构建。信心指的是患者对AI执行特定任务(模式识别、症状分析)的技术能力的认知评估。信任代表了尽管存在不确定性,但仍愿意表现出脆弱性并依赖AI推荐的更广泛的关系意愿,包括对技术系统(AI + 平台 + 临床医生)的信念。采用意图表示利用AI辅助诊断的行为倾向。

资助

本研究得到了重庆市社会科学规划博士项目的支持,资助编号为2025BS073

利益冲突声明

作者声明他们没有已知的可能会影响本文报告工作的竞争性财务利益或个人关系。

致谢

不适用。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号