临床医生和患者对人工智能在外科应用中的看法:一项范围综述

《Surgery》:Perceptions of Clinicians and Patients towards Artificial Intelligence Applications in Surgery: A Scoping Review

【字体: 时间:2026年05月04日 来源:Surgery 2.7

编辑推荐:

  埃尔维斯·穆萨 | 杰里米·金·海·李 | 贾斯汀·图宾 | 亚当·萨尔 | 帕斯卡尔·法拉沃利塔 渥太华大学医学院,加拿大渥太华,K1H 8M5 **摘要** 人工智能(AI)在手术护理中的广泛应用在很大程度上取决于临床医生和患者的态度,而这些态度目前尚未得到充分

  埃尔维斯·穆萨 | 杰里米·金·海·李 | 贾斯汀·图宾 | 亚当·萨尔 | 帕斯卡尔·法拉沃利塔
渥太华大学医学院,加拿大渥太华,K1H 8M5

**摘要**
人工智能(AI)在手术护理中的广泛应用在很大程度上取决于临床医生和患者的态度,而这些态度目前尚未得到充分了解。本综述旨在整合现有文献,探讨临床医生和患者对手术期间使用AI的看法,并识别其整合过程中遇到的障碍和促进因素。

**方法**
检索了截至2024年6月的MEDLINE、EMBASE、PubMed、CINAHL和Web of Science数据库中关于外科医生或患者对AI在手术护理中使用看法的研究。根据PRISMA综述指南对研究结果进行了定性分析和整合。

**结果**
共筛选出2,158条记录,其中16项研究符合纳入标准。研究主题包括:(1)对AI的熟悉程度;(2)对AI的信心和信任;(3)对AI使用的期望;(4)与AI相关的伦理问题和责任。外科医生和患者都认识到AI的潜在益处,尤其是在术前决策方面。当AI作为决策支持工具而非自主系统使用时,人们的信任度更高。随着AI系统自主性的提高,人们的舒适度有所下降。研究还指出,人们对AI概念的理解有限,并对透明度、可靠性、数据隐私和法律责任存在担忧。

**结论**
要将AI成功整合到手术实践中,需要对临床医生和患者进行培训,开发透明且可解释的系统,并制定明确的治理框架,以解决同意、隐私和责任问题。在AI开发过程中考虑利益相关者的观点有助于促进以患者为中心的伦理应用。

**引言**
人工智能(AI)正越来越多地应用于手术护理,其应用范围涵盖术前风险评估、术中决策支持、性能分析和术后监测[[1], [2], [3], [4], [5], [6], [7], [8], [9], [10], [11]]。虽然AI在围手术期医学中的技术能力不断扩展,但其成功实施不仅取决于技术性能,还取决于外科医生和患者的准备程度、信任度和接受度[11]。人们担心AI将如何融入现有的手术工作流程,临床医生是否具备安全使用这些工具的足够知识,以及可靠性、伦理和责任问题如何影响高风险环境(如手术室)中的采用[11,12]。从患者角度来看,尽管他们对提高效率和准确性的积极性很高,但担心护理的个性化程度会降低,同时对AI系统在临床决策中的作用了解有限[13,14]。尽管之前的研究已经探讨了AI在医疗保健中的应用以及患者对AI的总体态度,但关于外科医生和手术患者在手术期间使用AI的具体看法仍缺乏详细研究[13,15,16]。了解这些观点至关重要,因为临床医生和患者的接受度是AI技术能否安全有效地融入手术实践的关键决定因素。

**方法**
在医学图书馆员的协助下制定了全面的文献检索策略,以确保全面覆盖手术领域中的AI应用。检索范围从数据库创建之日起至2024年6月,使用了EMBASE、MEDLINE、PubMed、CINAHL和Web of Science。检索策略结合了控制词汇(如MeSH和Emtree术语)和与AI(如“人工智能”、“机器学习”、“深度学习”)及手术护理相关的自由文本关键词,以及捕捉临床医生和患者观点的术语(如“态度”、“认知”、“信念”)。所有数据库(MEDLINE、EMBASE、CINAHL和Web of Science)的完整检索策略见补充材料1。

**选择标准**
摘要和标题由三名审稿人独立且重复地筛选(AS、EM、JT)。所有被纳入的摘要的全文文章也由同一三名审稿人独立且重复地审查(AS、EM、JT)。在全文审查阶段出现的差异通过共识讨论和/或与资深审稿人(JL)协商解决。数据提取由三名审稿人(AS、EM、JT)重复完成。每位审稿人对提取的数据进行了随机审核,以确保准确性和一致性。使用Cohen’s kappa系数评估审稿人之间的可靠性。在标题和摘要筛选阶段,一致性为中等水平(κ = 0.51);在全文筛选阶段,一致性很高(κ = 0.85)。由于某些审稿人之间的完全一致,无法计算某些比较的pairwise kappa值。

**数据提取**
四名审稿人(AS、EM、JL、JT)使用研究团队开发的标准化数据提取工具表在Microsoft Excel中独立且重复地从纳入的研究中提取数据。该表格由研究团队预先制定,并在最初五项研究的小样本上进行了试点测试,以确保一致性和准确性。提取表经过多次改进,以确保与我们综述目的相关的数据得到充分且一致地捕获。提取的信息包括研究特征(如作者、年份、研究设计、参与者类型)、样本量、手术领域、使用的AI类型、评估看法的方法(如调查、Likert量表、访谈)以及与临床医生和患者观点相关的关键发现。

**主要结果**
本研究的主要结果是临床医生和患者对手术期间使用AI的看法,并通过定性主题分析识别出各研究中的重复模式和概念。提取的结果被编码为重复概念,分组为主题,并通过审稿人讨论逐步完善,直至达成共识。本综述的开展和报告遵循了《系统评价和荟萃分析优先报告条目扩展——综述版》(PRISMA-ScR)指南[17]。完成的PRISMA-ScR检查表见补充材料2。

**研究选择**
初步检索策略共找到2237篇文章,去除重复项后剩余2158篇。经过标题和摘要筛选后,排除了2126篇论文,进一步评估了32篇全文文章的适用性。最终共有16篇文章被纳入数据提取和最终分析(图1)。全文排除的主要原因是未提及临床医生或患者的观点、未涉及AI在手术护理中的使用、非原创的同行评审研究或仅有摘要而无全文。

**图1. 研究特征**
共纳入了16项研究,探讨了临床医生和/或患者对手术期间使用AI的看法(表1)。大多数研究涉及外科医生(n=12,75%)和/或手术患者(n=5,31%),少数研究还包括麻醉科、护理人员和重症监护人员。涉及的手术专业包括骨科(n=4,25%)、神经外科(n=2,13%)、创伤和急诊外科(n=2,13%)、普通外科(n=2,13%)、耳鼻喉科(n=2,13%)、泌尿科(n=1,6%)以及多学科手术队列(n=2,13%)。

**表1. 纳入研究的基本人口统计信息和摘要**主题1:外科医生和患者在围手术期环境中对人工智能(AI)的熟悉程度

**研究组** | **主要发现**
--- | ---
| **外科医生对AI的熟悉程度** |
| Cobianchi等人(2023) | · 69%的创伤和急诊外科医生表示熟悉AI |
| DeSimone等人(2022) | · 86%的创伤外科医生相信AI能够改善急性护理手术 |
| Asokan等人(2023) | · 72%的耳鼻喉科医生熟悉一般AI概念,但对特定于耳鼻喉科的AI程序不熟悉 |
| Pecqueux等人(2023) | · 53%的外科医生对医学中的AI有一定了解 |
| St-John等人(2024) | · 46.7%的普通外科住院医师对AI有一定熟悉程度 |
| Voskens等人(2023) | · 27%的外科医生积极关注专业和科学期刊中的AI发展 |

**患者对AI的熟悉程度** |
| Palmisciano等人(2020) | · 75%的神经外科患者听说过AI |
| Parry等人(2023) | · 教育水平越高,对AI的接受度越高 |
| Gould等人(2023) | · 采访显示患者认为AI是医疗保健中的神秘元素 |

除了基本熟悉度外,外科医生和患者对AI的积极参与度明显较低。尽管有强烈的学习兴趣,只有27%的外科医生表示定期关注AI研究。许多外科医生认为他们的机构尚未准备好整合AI,需要改进基础设施、提供培训机会,并提高组织对AI实施的准备度。

与外科医生相比,患者在AI方面的熟悉程度显著较低。在一项研究中,75%的患者听说过AI,但只有25%的患者认为AI能应用于外科护理。定性访谈显示,患者可能将AI视为“黑箱”,对其在临床决策中的运作方式感到不确定,并对其考虑个体患者差异的能力持怀疑态度。

**对AI的信心和信任** |
除三项研究外(n=13, 81%),所有研究都讨论了外科医生和患者对AI的信心和信任(表3)。外科医生的信任度很大程度上取决于AI的输出是否与临床判断一致、证据的质量以及模型输出的透明度。在一项比较机器学习预测与临床医生风险评估的研究中,当机器学习预测与临床医生的印象一致时,临床医生更信任AI,并且他们更喜欢能够提供详细输出(如基于百分比的风险估计)的透明界面,而不是简单的分类(如“低”或“高”)。在骨科领域,虽然对AI驱动的预测模型普遍有较高的信任度,但超过一半的外科医生表示,当AI建议与他们的判断相冲突时,他们会调整自己的临床方法。在耳鼻喉科,虽然虚拟手术规划工具被认为非常有用,但其对决策的影响较低,反映出即使技术受到积极评价,外科医生在关键决策时仍存在犹豫。

**主题2:外科医生和患者对AI在围手术期环境中使用的信心或信任** |
**研究组** | **作者** | **主要发现**
--- | --- | ---
| **外科医生对AI的信心和信任** |
| Asokan等人(2023) | · 82%的耳鼻喉科医生信任AI作为临床决策辅助工具 |
| Cobianchi等人(2023) | · 不同地区的外科医生对AI的信任度存在显著差异(阿根廷外科医生平均分为4.5/5,瑞士外科医生平均分为2.6/5) |
| Vanhille等人(2018) | · AI在手术规划中的有用性和使用态度得分较高(平均分为5.1/7和5.7/7),但对决策的影响较低(平均分为2.6/5) |
| Abraham等人(2023) | · AI输出的透明度提高了信任度 |
| Horsfall等人(2021) | | 81%的外科医生认为AI可以改善手术结果 |
| Voskens等人(2023) | | 85%的外科医生认为AI可以增加手术价值 |
| Lans等人(2021) | | 74%的骨科外科医生信任AI驱动的预测模型 |

**患者对AI的信心和信任** |
| Parry等人(2023) | | 平均对AI的接受度为6.4(标准差=2.4),男性患者的接受度更高(7.1,标准差=2.2) |
| Palmisciano等人(2020) | | 75.8%的神经外科患者对AI辅助的手术规划感到舒适 |
| Bains等人(2024) | | 53.8%的患者在不知道建议来源的情况下更喜欢ChatGPT生成的术后建议 |

总体而言,外科医生表现出谨慎的乐观态度:大多数人认识到AI的潜在价值,但较少有人相信AI能显著改善手术结果,因为他们担心其可靠性和验证问题。在混合方法调查中,78%的耳鼻喉科医生表示如果AI通过同行评审得到验证,他们愿意使用它。在神经外科领域,外科团队成员通常支持AI用于手术规划和实时手术中危险情况的警报,但也担心其可靠性及过度依赖的风险。患者则更倾向于医生监督,尤其是在自主性增加的情况下。当面对医生与AI之间的冲突建议时,大多数患者支持医生。

**对AI应用的期望** |
十一项研究(n=11, 69%)探讨了人们对AI应用的期望。在外科术前阶段,外科医生一致认为AI可以作为诊断、治疗计划和风险分层的临床决策支持工具。患者同样期望外科医生利用AI通过个性化数据和更准确的风险评估来优化治疗计划。从患者角度来看,他们希望外科医生使用AI来优化治疗计划,并希望获得关于AI作用的明确信息。主题3:外科医生和患者对围手术期使用人工智能的期望

**主题组**
**作者**
**主要发现**

**术前使用**
**外科医生**
Abraham等人(2023年):· 预期机器学习增强的风险预测工具能帮助外科医生更好地向患者传达风险。
Asokan等人(2023年):· 78.8%的外科医生认为人工智能有实用价值;74%的外科医生对人工智能提供的治疗建议感到满意。
· 在解读X光片(53%)和识别恶性肿瘤(44%)方面,对人工智能的信任度较低。
Cobianchi等人(2023年):· 与现在相比,未来人工智能作为临床决策工具的重要性将增加。
DeSimone等人(2022年):· 59.5%的创伤外科医生认为人工智能有助于围手术期决策。
St-John等人(2024年):· 24%的普通外科住院医师承认人工智能在诊断中的使用,16%的人认为其在方案管理中有用;20%的人支持将人工智能纳入电子病历系统进行大数据分析;77.4%的人对人工智能做出关键决策表示担忧。
Vanhille等人(2018年):· 外科医生认为虚拟手术工具有助于患者咨询、预测手术结果和确定合适的患者人选;潜在应用包括为犹豫不决的患者提供咨询以及精准定位解剖结构。
Voskens等人(2023年):· 44%的外科医生同意,17%的外科医生完全同意人工智能可以提高诊断准确性。
Horsfall等人(2021年):· 33%的外科医生认为术前数据分析和术前评估是人工智能的关键用途;18%的外科医生认为人工智能可以辅助手术计划。

**患者**
Gould等人(2023年):· 患者期望人工智能通过提供个人数据和优化治疗方案来帮助医生。
Palmisciano等人(2020年):· 75.8%的神经外科患者对人工智能用于术前计划感到满意;66.3%的患者支持其在术前影像解读中的应用。

**术中使用**
**外科医生**
Asokan等人(2023年):· 对人工智能参与手术的信任度较低(50%)。
DeSimone等人(2022年):· 53%的创伤外科医生认为人工智能有助于改善手术视野;61.5%的外科医生认为人工智能有助于培训和教育。
St-John等人(2024年):· 12%的普通外科住院医师支持在腹腔镜和机器人手术中使用人工智能进行结构识别。
Horsfall等人(2021年):· 52%的外科医生认为人工智能可用于手术辅助,18%的外科医生认为其有助于手术团队协调;12%的外科医生认为人工智能可以协助手术风险评估和术中并发症的评估。
Voskens等人(2023年):· 外科医生认为门诊诊所(35.8%)和手术室(39.6%)是人工智能的有价值应用场景;术中图像处理(57.5%)和手术性能指标(23.6%)是主要关注点。
Hameed等人(2023年):· 术中教学和技能/质量提升被直接列为人工智能的潜在应用。

**术后使用**
**外科医生**
Abraham等人(2023年):· 预期机器学习增强的工具可以提高手术室与重症监护室之间的交接质量,并更好地识别术后护理中的高风险患者。
DeSimone等人(2022年):· 59.5%的创伤外科医生认为人工智能有助于围手术期决策。
对术中人工智能的支持度随着自主性的增加而降低:只有53%的创伤外科医生认为人工智能能改善手术视野,只有12%的普通外科住院医师支持在腹腔镜或机器人手术中使用人工智能进行结构识别。同样,只有36-40%的外科医生支持使用基于人工智能的解剖学检测进行术中教学,但他们担心这会依赖实习医生并干扰手术室的工作流程。患者对部分自主(47.5%)或完全自主(17.7%)的手术干预的接受度也较低。

**关于人工智能使用的伦理问题**
六项研究(n = 6,37%)讨论了手术护理中人工智能使用的伦理和哲学问题(表5)。患者和外科医生共同关注的一个核心问题是,更自主的人工智能系统可能导致人际互动的减少。患者强调同理心、安慰以及医患关系的重要性,认为人工智能应起辅助作用,而不是取代或主导手术护理。外科医生则担心人工智能系统缺乏以患者为中心的护理所需的情感智能,可能会破坏医患关系。

**表5. 主题4:外科医生和患者对手术护理中人工智能使用的伦理担忧**

**主题组**
**作者**
**主要发现**
**人工智能的伦理问题**
**外科医生**
Voskens等人(2023年):· 外科医生担心在并发症发生时责任归属(83.1%)、自主性丧失(46.6%)和偏见风险(43.5%)。
Horsfall等人(2021年):· 关注点包括手术技能的潜在丧失和技术培训的需求(33%)、软件或数据的可靠性(33%)、人工智能系统的复杂性(15%)、伦理责任问题(15%)、人工智能软件或硬件的成本(9%)以及改变现有做法的抵触情绪(6%)。
Asokan等人(2023年):· 医生信任的主要障碍包括“设计不佳的算法”和“缺乏证据”。
Pecqueux等人(2023年):· 三个最主要的担忧是:1)与责任相关的伦理和法律问题;2)在争议性情况下的应用性;3)缺乏同理心和情感智能。
**患者**
Palmisciano等人(2020年):· 患者担心人工智能作为神经外科手术的辅助工具;40%的患者希望与能理解患者感受的人类医生交流;20%的患者认为需要进一步研究人工智能,特别是其数据准确性。
Gould等人(2023年):· 患者强调责任应始终由医生承担,而不是人工智能系统;患者相信自己有自我决定和决策的权利,指出人工智能缺乏同理心。

**结论**
总体而言,临床医生和患者都认识到人工智能的潜在益处,但在对人工智能的基本了解、对自主系统的接受度以及对其广泛应用的顾虑方面存在差异。虽然医疗专业人员和患者普遍对人工智能改善手术护理的能力持乐观态度,但当讨论实际应用时,他们的看法往往发生变化。外科医生和患者都接受人工智能在模式识别、预测分析和提高围手术期工作效率方面的帮助,但在将其应用于直接临床决策时信心会减弱。例如,外科医生可能信任人工智能作为辅助数据处理工具,但对完全自主的手术助手则明显感到不安。患者认为人工智能增强的决策和结果很有吸引力,但许多人对将关键决策交给人工智能算法感到不安。研究表明,患者对术后建议的信任度在得知这些建议由人工智能系统生成后会显著下降。目前关于人工智能在手术中使用的伦理问题较少被讨论,主要集中在决策支持方面,如提高交接质量。在31名普通外科住院医师中,只有20%的人支持将人工智能纳入电子病历系统以辅助术后临床解读,表明在这一护理阶段他们对人工智能应用的熟悉度和了解程度较低。

**讨论**
本综述概述了外科医生、患者和其他护理提供者对手术护理中人工智能使用的看法。我们发现了文献中讨论的四个关键主题:对人工智能的熟悉度、对人工智能工具的信任和信心、人工智能的预期应用以及伦理或责任问题。总体而言,临床医生和患者都认识到人工智能的潜在好处,但在对人工智能的基本了解、对自主系统的接受度以及对其广泛应用的顾虑方面存在差异。尽管医疗专业人员和患者普遍对人工智能改善手术护理的能力持乐观态度,但在从抽象概念转向实际应用时,他们的看法往往会发生变化。外科医生和患者都接受人工智能在模式识别、预测分析和提高围手术期工作效率方面的帮助,但在将其应用于直接临床决策时信心会减弱。然而,当这些系统用于直接决策时,信心往往会下降。例如,外科医生可能信任人工智能作为辅助数据处理工具,但对完全自主的手术助手则明显不放心。患者同样认为人工智能增强的决策和结果很有吸引力,但许多人对将关键决策交给人工智能算法感到不安。事实上,一项研究表明,患者在使用人工智能系统生成的术后建议后,其信任度显著下降。鉴于术前焦虑程度较高,透明沟通和关于人工智能辅助范围和安全的保障对于维持患者信任至关重要。然而,由于支持人工智能工具的证据基础有限(许多系统缺乏验证,并基于有限的数据集构建),这种信任可能会受到进一步挑战。当前文献的一个重要局限性是缺乏评估人工智能在手术中实际临床影响的研究。在最近一项关于人工智能在手术中使用和验证的系统性回顾中,只有45%的研究使用了高证据标准的验证方法,只有14%的研究报告了公开可用的数据集,这突显了在临床应用准备方面的持续担忧。人们对人工智能的看法也具有时效性;本综述中包含的几项研究是在生成式人工智能工具广泛出现之前的早期阶段进行的。最近的研究表明,在GPT时代之后,临床医生的态度正在发生变化:2021年和2024年进行的一项比较调查显示,对人工智能课程的认知率从14.5%上升到44.6%,参与度从12.9%上升到23%,表明随着生成式人工智能和手术数据科学的发展,人们的看法也在演变。弥合人工智能理论支持与实际接受之间的差距需要教育、设计和工作流程整合方面的努力。对于患者而言,教育干预和基于场景的演示可以帮助调整期望与现实。例如,向患者解释人工智能模型如何预测并发症风险并指导手术计划,可以使人工智能的好处更加直观。对于外科医生而言,很少有研究探讨如何提高他们对人工智能的信任。一种方法是尽早让最终用户参与设计过程,让外科医生提供反馈并参与开发人工智能系统的界面,这有助于创建更透明、更用户友好的工具。这种共同设计策略还能产生可解释的输出和更高质量的验证,从而提高临床医生对人工智能工具的信心。另一个实际因素是将人工智能系统无缝整合到现有的手术工作流程中。将基于人工智能的工具自然地融入临床医生的常规实践中至关重要,因为当人工智能嵌入到熟悉的流程(如现有的电子病历系统)中时,外科医生更愿意使用它。相反,如果整合不佳,可能会阻碍其采用。用户之间的技术素养差异也需要解决。例如,年长外科医生在使用人工智能工具方面遇到更多困难,这突显了有针对性的培训和支持的必要性。人工智能在手术中的扩展也带来了新的伦理和法律挑战,必须加以管理以确保信任。外科医生担心如果人工智能引导的决策导致不良后果,他们将面临责任和医疗事故责任的问题,而患者则担心数据隐私泄露或人工智能系统在未经适当同意的情况下做出决策。未解决的问题包括,如果自主手术机器人造成伤害,如何分配责任。为此,许多人呼吁制定更新的规定和特定于人工智能的法规。一些专家甚至提出了一种无过错赔偿模型,以保护因人工智能相关错误而受伤的患者,而不将责任过度归咎于提供者。目前,尚缺乏明确界定人工智能在临床环境中角色和限制的政策。建议成立多学科治理委员会,涉及临床医生、数据科学家、伦理学家、患者和法律专业人士,以确保问责制、保护数据完整性和维护患者安全,随着人工智能工具在手术护理中的更多应用。最后,需要持续的研究和利益相关者的参与,以指导人工智能在围手术期护理中的安全和有效发展。纵向研究应评估增加接触人工智能、改进教育和培训以及患者结果如何随时间影响人们对人工智能的态度。还需要进一步的工作来了解不同专业和地区经验,因为对人工智能的感知和信任可能因手术学科和文化背景而异。深入的定性方法(如访谈或焦点小组)可以帮助识别调查可能未能捕捉到的细微障碍或促进因素。让所有利益相关者参与手术人工智能的治理对于确保未来实施保持手术实践的人文核心至关重要。首先,由于研究的异质性和本范围综述的性质,未对报告的定量和定性结果进行元分析。此外,尽管作者承认由于纳入研究的观察性特征以及出版偏倚的固有影响,存在较高的偏倚风险,但并未进行正式的偏倚风险评估。最后,由于本综述的主要目标是系统地梳理关于人工智能在外科领域应用的已知和未知情况,因此没有对所讨论的各种人工智能技术的整体性能、临床效用或实施可行性进行评估。

结论:虽然外科医生和患者都认识到人工智能在外科护理中的潜在益处,但其接受程度取决于解决理解上的基础知识差距、通过验证建立信任,以及通过立法明确界定人工智能在临床决策中的作用和责任。本综述强调,人工智能最容易被接受为一种决策支持工具,而不是一个自主系统;要实现成功整合,需要针对临床医生和患者进行有针对性的教育,将其深思熟虑地整合到现有的医疗工作流程设计中,并建立明确的治理框架。将临床医生和患者的观点纳入人工智能技术的开发和实施过程中至关重要,以确保这些技术能够增强而非破坏以患者为中心的外科护理。

利益冲突/披露:作者没有相关的财务披露。

资金/财务支持:作者未获得这项工作的任何资金支持。

CRediT 作者贡献声明:
Ervis Musa:撰写 – 审查与编辑、撰写 – 原稿、可视化、验证、项目管理、方法学、调查、正式分析、概念化。
Jeremy King Hei Lee:撰写 – 审查与编辑、撰写 – 原稿、可视化、验证、监督、项目管理、方法学、调查、正式分析、概念化。
Justine Tubin:撰写 – 审查与编辑、可视化、验证、项目管理、调查、正式分析。
Adam Saal:撰写 – 审查与编辑、可视化、验证、项目管理、方法学、调查、正式分析。
Pascal Fallavollita:撰写 – 审查与编辑、可视化、验证、监督、方法学、概念化。

CRediT 作者贡献声明:
Ervis Musa:概念化、正式分析、调查、方法学、项目管理、验证、可视化、撰写 – 原稿、审查与编辑。
Jeremy King Hei Lee:概念化、正式分析、调查、方法学、项目管理、验证、可视化、监督、撰写 – 原稿、审查与编辑。
Justine Tubin:正式分析、调查、方法学、项目管理、验证、可视化、撰写 – 审查与编辑。
Adam Saal:正式分析、调查、方法学、项目管理、验证、可视化、撰写 – 审查与编辑。
Pascal Fallavollita:概念化、方法学、监督、验证、可视化、撰写 – 审查与编辑。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号