人工智能在医学中的审慎应用:来自德国过敏学家协会青年医师的观点与倡议

《Allergo Journal》:KI clever und kritisch einsetzen

【字体: 时间:2026年03月17日 来源:Allergo Journal 1

编辑推荐:

  德国过敏学家协会(AeDA)青年医师成员讨论了在医疗研究中使用人工智能(AI)的“双刃剑”效应。他们介绍了Julius AI和Covidence等实用工具,但更深入地探讨了AI应用中的核心问题:其本质并非真正的“智能”,而是基于概率的计算;AI存在产生错误、侵犯数据隐私及消耗巨大资源等多重风险。为此,文章呼吁医学研究者需有批判性思维,清晰界定问题,确保AI带来真正的附加价值,而非仅为使用而使用。

  
当我们谈论人工智能时,常常带着一种近乎科幻的憧憬。尤其是在医学与科研领域,似乎AI工具的引入即将带来一场解放生产力的革命。然而,在德国过敏学家协会(?rzteverband Deutscher Allergologen, AeDA)的线上会议室里,一群年轻医师们正围“炉”夜话,探讨的却是这股浪潮下潜藏的暗礁与必要的清醒。
时间回到2026年1月5日,AeDA的Junior-Members(青年会员,指36岁以下医师及医学生)举行了一场主题为“人工智能”的在线会议。这并非一场单纯的技术展示会,而是一场深刻的利弊辩论。会议伊始,实用的AI工具如“Julius AI”和“Covidence”被呈现在与会者面前。前者能辅助进行复杂的统计分析,后者则为团队协作进行文献检索和综述撰写提供便利。这些工具听起来像是科研工作者的福音,能节省大量繁琐劳动。但讨论很快转向了更广阔、也更令人不安的图景:那些无处不在的、基于大型语言模型(Large Language Models, LLM)的聊天机器人。它们声称能提供智能答案,但“人工智能”这个名称本身就可能是一种误导——文档尖锐地指出,AI与我们通常理解的“智能”毫无关系。这些系统所做的,不过是在接收到一个“提示”(Prompt)后,根据其庞大的训练数据,计算出最可能的输出值。它们对自己生成的内容为何在人类看来是对是错、是否符合伦理,并无真正的“理解”。
那么,这些看似智能的工具,其“暗面”究竟有多大?除了已被广泛讨论的“幻觉”(即生成错误信息)和数据隐私、版权侵犯问题,文章还揭示了一些较少进入公众视野的批评。首先是训练数据的“肮脏”源头。为了喂养这些“巨兽”,数据不仅来自标准互联网,还取自暗网(Darknet)。这意味着,在链条的最前端,有一群工作条件恶劣的“数据清洁工”(Data Cleaners),他们被迫日复一日地给那些令人不安、暴力、色情的内容打上标签,以便这些数据能被用于训练或被筛选剔除。这个过程本身就对劳动者的身心健康构成了严重威胁。另一个沉重的话题是资源消耗。根据新闻网站netzpolitik.org的报道,2023年美国数据中心的能耗已占全国总用电量的4.4%,且趋势仍在上升。这还不包括建造新数据中心所需开采的大量关键原材料,以及随之产生的巨量电子垃圾。这些废弃物大部分被出口到全球南方,而那里通常缺乏足够的回收基础设施。雪上加霜的是,AI的自我强化循环正在形成:每天都有新模型被训练和测试,用户激增,导致AI生成的内容泛滥。这些内容越来越难与人类创作的内容区分,并且其中包含的错误信息可能在此过程中不断自我放大和传播。
面对算力和存储能力的有限性,以及尚未建立健全的管控机制,医学界应如何应对?2026年1月,欧洲药品管理局(European Medicines Agency, EMA)和美国食品药品监督管理局(U.S. Food and Drug Administration, FDA)发布了关于善用AI的十项原则,这固然重要,但被批评为仍不够具体。在此背景下,文章发出了清晰而有力的呼吁:请务必审慎使用AI,不要制造内容垃圾!在科研项目中,应有意义地运用这些工具。关键在于,研究者应在使用前就明确自己的科学问题,确保AI能真正带来附加价值——而不是仅仅为了在论文中贴上“使用了AI”的标签而使用它。这本质上是对科研初衷和严谨性的回归。
本文章主要基于对AI技术在医学研究中应用的现状讨论、问题梳理及倡议提出,并未涉及传统生物医学实验研究中的具体技术方法。其核心“方法”是学术共同体(即AeDA青年医师团体)的圆桌讨论与文献、案例评析,旨在形成批判性的共识与行动指南。
文章的结构和主要论点如下:
Rechnen statt denken?(计算而非思考?)
本部分通过辨析“人工智能”的概念,得出核心结论:当前基于LLM的生成式AI并不具备真正的智能或理解能力。其输出仅是训练数据基础上的概率计算,无法判断内容的对错与伦理性。这提醒研究者必须对AI输出保持批判态度,不可盲目信赖。
Die Schattenseite der KI(人工智能的暗面)
本部分系统剖析了AI应用的多重负面影响,得出结论:AI产业存在从数据源头的伦理缺陷(如“数据清洁工”的困境)到终端的巨大环境成本(能耗、资源消耗、电子垃圾污染)的全链条问题。同时,AI生成内容的泛滥和“幻觉”问题构成了信息污染和错误自我强化的风险,对科研诚信和公共信息环境构成威胁。
KI sinnvoll einsetzen(有意义地运用人工智能)
本部分在指出监管原则尚不具体的现状后,提出了具体的行动倡议。结论是:医学研究者必须怀有明确目的和批判性思维来使用AI工具,以确保其服务于清晰的科学问题并产生真正的附加值,避免为赶时髦而肤浅或不当的应用。
Die Junior-Members des AeDA(德国过敏学家协会的青年会员)
本部分并非研究结论,而是对AeDA青年会员计划的介绍,说明了参与资格(36岁以下医师及医学生)及其主要福利,如低成本社交机会、免费参加德国过敏学大会和《Allergo Journal》杂志、导师计划和国际会议奖学金等,旨在吸引更多年轻学者加入这一专业社区。
归纳与讨论
综上所述,这篇发表于《Allergo Journal》的文章并非一份技术报告,而是一份来自医学研究前沿的“清醒剂”和行动倡议书。它超越了简单介绍AI工具功能的层面,深入批判了当前AI热潮中容易被忽视的本质缺陷、伦理困境和环境影响。文章的重要意义在于:
  1. 1.
    正本清源:它挑战了“人工智能即智能”的流行迷思,帮助医学研究者建立对AI技术本质(概率计算模型)的正确认知,这是负责任使用的前提。
  2. 2.
    揭示全貌:它将讨论从单一的输出准确性,扩展到了数据供应链伦理、环境可持续性和社会影响等更广阔的维度,促使学界思考技术应用的全面成本。
  3. 3.
    提供指南:在监管框架尚不完善的情况下,它为个体研究者和学术共同体提供了切实可行的行为准则——即以明确的科学问题为导向,以产生真实附加值为目标,审慎、批判性地使用AI。
    这项讨论对于正处于AI应用探索初期的生命科学与医学领域尤为关键。它强调,在拥抱技术效率的同时,必须坚守科研的伦理底线、环境责任和求真内核。AeDA青年医师们的这场辩论,正是培养下一代学者具备这种平衡与批判能力的重要一步。
相关新闻
生物通微信公众号
微信
新浪微博

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号