人工智能应用临床监督的教育策略

《Obstetrics & Gynecology》:Educational Strategies for Clinical Supervision of Artificial Intelligence Use

【字体: 时间:2026年02月20日 来源:Obstetrics & Gynecology 4.7

编辑推荐:

  人工智能在医学教育中的应用需平衡效率与风险,提出DEFT-AI框架和centaur-cyborg模型指导合理整合与批判性评估。

  ```section>

人工智能(AI)的出现,尤其是大型语言模型(LLMs),有潜力从根本上改变医疗实践。然而,效率的提升伴随着一个风险:如果AI使用不当,独立批判性思维的能力可能会下降。这种权衡同样适用于医学培训。过度依赖AI可能导致先前掌握的知识被遗忘(“去技能化”)、无法发展新技能(“永不技能化”)以及强化错误的做法(“误技能化”)。这些问题的许多根源在于LLM推理过程的透明度有限。在面对不确定性和偏见时,批判性思维仍然至关重要,而AI的快速整合使这一技能成为医学教育的核心。本文提出了一个结构化的框架,帮助教育者和学习者在医学背景下使用AI时培养批判性思维。

AI在学习环境中的使用存在若干风险。由于AI的应用尚处于早期阶段,教育者和学习者都容易受到这些挑战的影响,因此强调基于社区的学习方式尤为重要,在这种学习方式中,角色是灵活的,知识可以得到共享。过度依赖AI会导致临床推理能力的下降(“去技能化”和“永不技能化”),从而限制技能的发展。研究发现,AI使用频率越高,批判性思维能力越有可能减弱,尤其是在年轻参与者中。一项随机临床试验表明,AI的使用会妨碍复杂分析任务的完成。另一项研究显示,接触了带有偏见的AI诊断预测的临床医生更有可能将这些偏见纳入自己的评估中,这凸显了误技能化的风险。这种效应与个人的基线表现相关:基线表现较差的临床医生受AI的影响更大,而那些表现优于AI的医生在AI得到适当整合后能够取得更好的结果。

为应对这些风险,作者提出了一个框架,帮助教育者将涉及AI的临床场景视为教学机会。当教育者观察到学习者与AI工具互动时,可以运用DEFT-AI框架(诊断、证据、反馈和教学)来引导苏格拉底式的讨论。这一过程包括诊断、讨论和交流:学习者需要解释他们的临床推理过程以及使用AI的原因。在证据阶段,学习者提供支持或反对临床评估的证据,并评估AI在特定情境下的优势和局限性。反馈阶段,教育者鼓励学习者反思自己在临床推理和AI使用方面的不足。教学阶段则基于这种反思,提供有针对性的指导和建议,通常鼓励继续使用AI,但需根据具体情况调整使用方式和监督程度。

作者还用“半人马-赛博格”模型来描述AI的使用方式。“半人马”模式下,用户将任务战略性地分配给自己和AI,将高风险决策留给人类负责。“赛博格”模式下,人类和AI通过迭代协作完成任务,这种方法适用于低风险的离散任务,但存在过度依赖的风险。教育者应帮助学习者在两种模式之间灵活切换,通过认知暂停和对AI使用的批判性评估来实现这一点。应参考临床指南、已发表的文献和专家意见来评估AI的输出结果,提示应具体、符合情境且无偏见。提供示例并要求对AI的推理过程进行清晰解释,有助于进一步支持批判性判断。

总体而言,作者支持将AI融入教学实践而非排斥它。对AI输出的验证和批判性评估是有效AI教育的关键,采用DEFT-AI方法可以提升临床推理能力和AI素养。

通俗语言总结将AI(尤其是大型语言模型)整合到医疗实践和教育中可以提高效率,但也可能削弱批判性思维能力。由于AI的透明度有限,过度依赖AI可能导致“去技能化”、“永不技能化”和“误技能化”。作者提出了DEFT-AI这一结构化框架,帮助教育者和学习者在使用AI的过程中培养批判性思维。该框架包括诊断、证据评估、反馈和教学环节。“半人马-赛博格”模型建议在人类和AI之间进行任务的战略性分配,将高风险决策留给人类处理。作者倡导将AI融入教学实践,并强调通过验证和批判性评估来增强临床推理能力和AI素养。

```
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号