在职教师对AI的信任与不信任:解码伦理维度智能TPACK量表与教师伦理感知的关联

《Computers and Education Open》:Unpacking ethics-domain of intelligent-TPACK scale in relation to in-service teachers’ trust and distrust

【字体: 时间:2026年02月23日 来源:Computers and Education Open 5.7

编辑推荐:

  随着人工智能(AI)在教育中的应用日益广泛,如何培养教师对AI的信任并促进其负责任地整合AI成为关键挑战。本研究基于智能TPACK (Intelligent-TPACK)框架的伦理维度,通过一项多案例研究,探索了在职教师对AI的伦理认知(如透明度、公平性、问责制和包容性)如何塑造其信任。研究发现,教师的AI技术知识与信任水平呈非线性关系,深入了解AI的伦理风险反而可能降低初始信任度;伦理构建相互关联且动态,但教师在教学中对透明度和问责制关注不足。该研究为教师教育中定义和操作智能TPACK的伦理维度提供了重要启示,并为制定针对性的教师AI伦理素养培训策略指明了方向。

  
想象一下这样的场景:课堂上,一位教师使用AI工具为学生的作文生成即时反馈,或依赖一个智能系统来预测哪些学生可能需要额外的学习支持。这听起来像是未来教育的理想图景。人工智能(AI)确实为教育工作者减轻了行政和程序性工作的负担,使其能将更多时间投入促进学生学习和参与。然而,当教师们准备拥抱这项技术时,内心深处却常怀疑虑:我能信任这个AI吗?它给出的评分是否公平?它是否理解我班上那些来自不同文化背景、有着独特学习方式的学生?更重要的是,如果AI的决策出错,谁来负责?随着AI从高等教育逐渐渗透到低年级课堂,学者们普遍认为,为下一代安全、负责任地使用AI做好准备已非一时兴趣,而是一种必然。
尽管现有研究表明,教师对AI的信任是影响其长期使用的关键心理因素,并且与他们对AI的开放性使用相关,但我们对信任本身如何发展,特别是它如何与教师对AI的伦理认知相互关联,仍然知之甚少。教师对AI的信任是一个复杂、多维的现象。一方面,缺乏足够的技术知识可能导致“过度信任”,对潜在风险视而不见;另一方面,对AI的伦理和技术限制了解得越深入,反而可能加剧焦虑和不信任感。此外,公平( Fairness )、问责制( Accountability )、透明度( Transparency )和包容性( Inclusiveness )等伦理概念虽被广泛认为是构建可信AI的核心,但教师在实践中如何理解并运用这些概念来评估教育场景中的AI工具,尚未得到充分探讨。
为填补这些研究空白,发表在《Computers and Education Open》上的一项研究,由Ceren Ocak和Secil Caskurlu进行,旨在深入探索这一现象。研究者们想知道:在职教师所感知到的、在伦理领域的AI知识,如何与他们信任或不信任AI相关联?这项研究以Celik提出的智能TPACK (Intelligent-Technological Pedagogical Content Knowledge)框架中的伦理维度为理论透镜,重点关注透明度、公平性、问责制和包容性这四个伦理构建,将其作为伦理AI的指标,并考察教师信任如何围绕这些指标展开。
为了回答这个问题,研究团队开展了一项质性的多案例研究。他们选取了7名教授K-12(从幼儿园到12年级)不同学段的在职教师作为案例,这些教师都参加了一个为期两周、聚焦AI的在线学习模块,该模块旨在培养他们对AI的技术和伦理理解。研究数据主要来源于教师们在该模块中的书面反思讨论帖。研究人员采用了两轮编码来分析数据:第一轮是演绎编码,基于智能TPACK量表的四个伦理类别;第二轮是归纳编码,旨在识别每个伦理类别下的具体指标。通过这种方式,研究者们不仅希望厘清伦理与信任之间的关系,也旨在通过定性证据,进一步阐明和细化智能TPACK框架中的伦理维度。
在研究过程中,作者们运用了几个关键技术方法。首先,他们采用了多案例研究方法,对7名具有不同AI知识水平和信任程度的在职教师进行深入分析,通过跨案例比较来探索现象的模式和差异。其次,研究依赖于在线异步学习模块中收集的教师书面反思作为主要定性数据源,这些数据真实反映了教师在接触AI伦理内容后的思考和观念变化。再者,数据分析采用了两轮编码策略:第一轮基于智能TPACK伦理维度的四个高级类别进行演绎编码;第二轮则进行开放式编码,以归纳出更具体的伦理指标,并通过描述性统计辅助分析参与者的背景信息和信任度变化,从而构建了详尽的案例描述并进行跨案例分析。此外,研究通过实施多种程序来确保研究的可信度,包括研究者的协作编码、定期团队会议反思、使用多源数据以及提供丰富的案例细节描述。
研究结果部分通过七位教师的详细案例,生动地展示了AI伦理认知与信任之间的复杂互动。
  • Case 1: Beth’s Case Description
    Beth对AI系统持怀疑态度。她的反思集中在公平性、包容性以及问责制和开发者责任上。她关注量化偏差(Quantification Bias),即AI系统将人简化为类别,无法反映其真实生活经验;她也指出设计者偏见(Designer Bias),认为算法嵌入了人类设计者的偏见;她还强调技术的非中立性(Non-Neutrality of Technology)。Beth主张人在回路(Human-in-the-Loop)的决策方式,认为AI不能替代人类的道德判断。随着她对AI伦理风险(如偏见和数据表征)的认识加深,她的信任度略有下降。
  • Case 2: Hannah’s Case Description
    Hannah持谨慎乐观态度,信任度为中等。她的伦理关切同样围绕公平性、包容性与问责制。她指出了量化偏差和数据收集工具设计缺陷导致的数据偏见(Data Bias)。她认识到设计者偏见,并强调教师也负有伦理责任,主张AI应支持而非取代教师的决策,即教师在回路中扮演关键角色。
  • Case 3: Jane’s Case Description
    Jane的AI知识水平较低,信任度也低。她的关切点在于问责制与公平性,以及透明度。她详细论述了量化偏差、数据偏见和设计者偏见如何相互关联,导致AI决策不公。她对透明度的理解聚焦于数据隐私与监控(Data Privacy and Surveillance),认为需要教导学生具备批判性数据素养,以理解其数据如何被收集和使用。
  • Case 4: Sara’s Case Description
    Sara是唯一一位信任度(从较低升至中等)有所增加的参与者。她的伦理视角最为系统,涉及问责制与公平性、问责制与开发者责任、公平性与包容性,以及公平性与透明度。她探讨了情境依赖性(Contextual Dependence)、数据偏见和设计者偏见,并强调人与AI的协作。她关注量化偏差对少数族裔或第二语言学习者的潜在伤害,并提出可解释AI(Explainable AI)作为解决方案,认为透明、可审计、可解释的AI设计是公平的基石。
  • Case 5: Mia’s Case Description
    Mia最初信任度最高,但在学习模块后信任度急剧下降,转为较低信任群体。她的反思集中在问责制与包容性、公平性与包容性以及问责制上。她担忧量化偏差和数据偏见会伤害学生,并指出设计者偏见。她的案例表明,了解AI的技术局限和伦理问题可能会显著削弱先前的高信任度。
  • Case 6: Nora’s Case Description
    Nora的信任度从中等降至较低。她关注问责制与公平性,以及包容性与公平性。她强调量化偏差和数据偏见,并警告将数据视为客观的风险,因为这可能掩盖并强化现有的不平等。她也支持人在回路的理念,认为AI系统应允许教师输入信息以确保公平。
  • Case 7: Hailey’s Case Description
    Hailey的信任度从较高降至较低。她的伦理关切涉及公平性与包容性,以及问责制。她通过个人经历说明了量化偏差和数据偏见,例如在线学习平台因微小格式错误而错误判断学生能力。她强烈主张教师在回路的问责制,认为教师必须批判性地审查AI输出,不能盲目信任自动化决策。
Cross Case Analysis
跨案例分析总结了七位参与者的共性与差异。研究发现,所有参与者都报告了与包容性、公平性和问责制相关的伦理关切。初始信任度较高或中等的参与者(如Mia, Hailey, Nora)在接触AI伦理内容后,信任度普遍下降,主要担忧量化偏差和数据非中立性。而初始信任度较低的参与者则维持了较低的信任,更关注数据隐私、监控、数据误表征和开发者责任。Sara是例外,她信任度的提升与她将透明度视为AI的可审计性和可解释性有关,而非仅仅将其看作AI的缺陷。
讨论部分,作者深入阐释了研究发现的意义。
首先,研究揭示了教师对AI的技术知识与信任之间存在非线性关系。这与先前研究一致,即更高的AI知识不一定带来更高的信任,反而可能因意识到其技术和伦理限制而降低信任、增加焦虑(如Mia和Hailey的案例)。Sara的案例则表明,透明度和可解释性是建立信任的关键因素,当教师能够理解AI决策过程时,信任可能增加。这表明,技术知识本身并不直接决定信任,而是通过塑造教师对AI伦理维度的批判性理解来间接影响信任。
其次,研究细化并拓展了智能TPACK框架中的伦理维度。教师的观点显示,公平、问责、包容和透明这些伦理构建并非彼此孤立,而是深度交织且动态关联的。例如,公平性最常与包容性同时出现,教师们认为,若AI系统无法准确代表所有学生(尤其是文化语言背景多样的学生),就无法实现公平。公平性也与问责制紧密相连,教师们强调,若开发者不为数据收集、算法设计和决策过程负责,AI就无法做出公平决策。尽管只有Sara明确将公平性与透明度联系起来,但她指出,若人们不理解AI如何决策,就无法质疑可能影响学生的结果,因此透明度是确保公平的必要条件。
再者,问责制是贯穿所有案例的核心伦理关切。教师们普遍认识到AI系统由人类开发,其价值观和假设塑造了AI结果。问责制问题与量化偏差、数据偏见和设计者偏见密切相关。教师们强调,AI只能依据所给数据做出决策,而问责在于决定收集什么数据、如何设计调查工具以及提供哪些选项的人。
最后,研究发现,教师在讨论伦理关切时,对透明度和决策中的人为问责制关注相对不足。这提示,在教师教育倡议中,这些领域需要得到更多关注。此外,教师的课堂优先事项(如关注学生个体背景、确保公平学习机会)深刻影响了他们如何理解和参与AI伦理考量。
综上所述,这项研究通过在职教师的视角,深入剖析了AI伦理认知与信任之间复杂而动态的关系。它表明,培养教师对AI的信任,不能仅靠传授技术知识,更需要系统性地培养其伦理评估能力,使其能够批判性地审视AI工具的公平性、问责制、包容性和透明度。研究结果为在教师教育中定义和操作智能TPACK的伦理维度提供了宝贵的定性证据和具体指标,对设计有效的教师AI素养培训课程、促进AI在教育中的负责任整合具有重要的理论和实践意义。
相关新闻
生物通微信公众号
微信
新浪微博

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号