《Discover Public Health》:Trust and overreliance on ChatGPT and its implications on critical thinking: an exploration in health policy
编辑推荐:
本文聚焦于在健康政策领域使用ChatGPT等生成式大语言模型时面临的信任与过度依赖问题。作者基于技术接受模型,通过叙事综述探讨了用户对AI的信任如何可能损害其批判性思维,并提出了六项要求,旨在帮助未来卫生政策制定者实现对该工具的“最佳依赖”,从而避免批判性思维能力的丧失,甚至提升这些技能。
随着以ChatGPT为代表的人工智能(AI)技术席卷全球,其在短短两个月内用户数便突破1亿的惊人速度,昭示了其在教育、医疗、研究乃至政策制定领域的巨大应用潜力。特别是在健康政策这一关乎公众福祉的领域,AI工具被认为能够快速分析数据、生成报告草案,甚至辅助决策。然而,这把“双刃剑”的另一面也逐渐显现:当技术接受模型(TAM)框架下的“感知有用性”和“感知易用性”推动用户欣然采纳时,对AI的“信任”是否会滑向不加批判的“过度依赖”?这种依赖又是否会侵蚀人类决策者至关重要的批判性思维(Critical Thinking)能力?这正是本文《ChatGPT在健康政策中的信任、过度依赖与批判性思维:一项探索性叙事综述》所要探讨的核心问题。
目前,世界卫生组织(WHO)和欧盟人工智能法案等国际指南虽然倡导负责任、以人为本、基于信任的AI发展,但对于像ChatGPT这样的生成式大语言模型(LLM)应鼓励、劝阻还是禁止使用,仍需深入的伦理分析作为决策依据。已有研究表明,韩国大学生使用ChatGPT后批判性思维水平下降,一项系统性综述也指出,22%的研究发现ChatGPT的使用会限制问题解决和批判性思维。批判性思维能力的丧失不仅关乎个人,还与创造力下降、独立思维减弱、惰性增加乃至抄袭行为增多相关,这对于需要严谨、全面、公正分析的健康政策制定过程而言,风险不容小觑。
为了解决上述问题,研究人员开展了一项深入的叙事综述。他们首先梳理了AI和ChatGPT的发展脉络、技术基础(如自然语言处理(NLP)、Transformer架构、基于人类反馈的强化学习(RLHF)),并基于技术接受模型(TAM)框架,深入探讨了“信任”这一复杂概念——从人际信任与技术信任的区别,到AI信任的构建要素(如透明度、性能、可解释性)。研究明确指出,对ChatGPT的信任虽然不同于对人的信任,但却是使用它的基础。然而,不了解其局限性、缺点和挑战的“盲目信任”(Blind Trust)会导致“过度依赖”(Overreliance)。作者提出,过度依赖可能源于两个方面:一是过度使用(依赖性);二是忽视或无视ChatGPT存在的固有局限。
通过对现有文献的批判性分析,研究人员总结了ChatGPT在健康政策应用中的一系列挑战与局限,并将其归纳为六大类别:训练数据(如数据来源不透明、存在偏见、存在知识截止日期)、内部运作(如“黑箱”性质、计算资源消耗大)、人类学习过程(如可能导致批判性思维和创造力下降、助长学术不端)、ChatGPT输出(如可能生成“幻觉”或事实性错误信息、缺乏情感和同理心、存在刻板印象)、隐私与安全(如数据隐私风险、网络安全威胁),以及可持续性(如环境足迹、加剧数字鸿沟)。这些局限意味着,若不加审慎地依赖ChatGPT的输出,可能在政策制定中引入偏见、忽略关键背景,甚至做出有害决策。
基于上述分析,为了在健康政策领域实现对ChatGPT的“最佳依赖”,避免批判性思维流失并促进其提升,作者提出了六项关键要求:第一,理解ChatGPT的内部运作机制;第二,保持对AI局限性的清醒认识;第三,培养对话式批判性思维;第四,将ChatGPT定位为辅助工具而非替代品;第五,确保人类在决策中的最终责任;第六,在政策制定中倡导以人为本、合乎伦理的AI应用。这六项要求共同构成了一个框架,旨在引导未来的卫生政策制定者负责任且有效地利用AI工具。
研究人员在撰写本综述时,优先检索并分析了与ChatGPT在健康政策中应用相关的最新文献。由于ChatGPT是新兴技术,许多相关讨论以评论、社论或预印本形式存在,经过同行评议的实证研究相对缺乏,这本身也凸显了在该领域开展更多严谨研究的紧迫性。
研究结果部分通过对文献的梳理和整合,得出了若干重要结论:
1. 信任是使用ChatGPT的基础,但与人际信任不同。
研究表明,用户对技术的信任基于其可靠性和预期性能。对ChatGPT的信任直接影响其使用意愿和实际使用行为。然而,盲目信任(即无视其局限性)会直接导致过度依赖。
2. 过度依赖ChatGPT会损害批判性思维。
过度依赖被定义为“即使在建议与可用背景信息相悖、且违背建议者自身及他人利益的情况下仍然依赖”。这种依赖可能源于过度使用(形成技术依赖)和忽视ChatGPT的固有局限。实证研究显示,使用ChatGPT的频率能显著预测对其的依赖程度,且过度依赖会削弱用户批判性评估信息来源、深入理解研究议题以及交叉核对数据的能力。
3. ChatGPT在健康政策中具有潜力,但需警惕其局限性。
ChatGPT可应用于政策制定与分析、政策传播、政策评估、决策支持以及偏见检测等多个环节。它能快速协助文献综述、大纲制定和文本润色,有助于知识传播。然而,其应用受限于表2所总结的各类问题,例如训练数据偏见可能使政策建议有失公允,“黑箱”决策过程不符合政策透明性原则,以及生成内容可能存在事实性错误。
4. 实现“最佳依赖”需要满足六项要求。
为避免过度依赖带来的风险,并最大化ChatGPT的辅助价值,健康政策制定者需要满足前文所述的六项要求。核心在于将ChatGPT视为增强人类智能(而非替代人类)的工具,并在与AI的对话互动中(包括设计提示词和分析其回复两个环节)主动培养和运用批判性思维。
结论与讨论部分强调,本文的探讨根植于技术接受模型(TAM),该模型揭示了感知易用性和有用性如何通过信任影响技术采纳。在ChatGPT的语境下,建立恰当的信任而非盲目信任,是防止过度依赖、保护并提升批判性思维的关键。作者提出的六项要求为未来卫生政策制定者提供了一个实践框架。这项研究的重要意义在于,它率先系统性地在健康政策这一高风险领域,剖析了AI工具(以ChatGPT为例)的信任机制与批判性思维流失风险之间的关联,并提出了具有操作性的“最佳依赖”准则。这不仅回应了国际组织对“负责任AI”和“以人为本”原则的呼吁,也为教育机构培养未来政策制定者的AI素养,以及为相关政策、法规的制定提供了重要的学术参考。最终,研究的核心启示是:在AI时代,人类的批判性思维不仅不应退场,反而应通过有意识、有引导地与AI工具协同工作而得到进一步锤炼和提升。