《Computers and Education Open》:Generative AI in higher education: Ethical and behavioral factors influencing students’ intentions to use ChatGPT
编辑推荐:
为探究在高等教育领域,伦理和行为因素如何综合影响学生使用ChatGPT的意愿,研究人员整合FATE伦理框架、TAM、TPB和UTAUT理论,构建并验证了一个集成模型。通过对四个欧洲国家(爱沙尼亚、德国、波兰、罗马尼亚)344名学生的调查数据进行PLS-SEM分析,研究发现:可解释性和隐私是建立对ChatGPT信任的最强预测因子,而信任不直接影响使用意图,而是通过影响感知性能间接起作用;从行为角度看,大学教授的社会影响力与学生的感知行为控制是采纳ChatGPT的关键驱动力。该研究为教育工作者和政策制定者推动生成式AI工具在高等教育中的负责任采纳,提供了兼顾机遇与风险的实证见解。
近年来,以ChatGPT为代表的生成式人工智能(Generative AI, GenAI)正以前所未有的速度渗透并重塑高等教育生态。这类工具不仅能够通过法学、商学、医学等领域的复杂考试,展现出强大的信息处理与内容生成能力,其自然流畅的对话式交互特性也大大降低了学生的使用门槛,使其成为提升学习效率和完成学业的潜在“得力助手”。然而,这股技术浪潮的迅猛推进,也伴随着一系列深刻而迫切的讨论。教育工作者、研究者和政策制定者开始担忧:当学生越来越多地借助AI完成作业时,学术诚信如何保障?AI生成的答案可能存在“幻觉”或捏造引用,其可靠性和教育价值几何?更为核心的是,在技术功能之外,学生们如何看待和权衡使用AI工具所涉及的公平性、问责制、透明度和隐私等伦理问题?这些伦理考量与他们的行为决策之间,又存在怎样的复杂互动?现有的研究多侧重于单一的理论模型或局限于单一国家背景,缺乏一个能融合技术、行为与伦理多维视角的整合性分析框架,这限制了我们全面理解学生采纳ChatGPT背后的深层动因。
为了弥合这一研究空白,一篇发表于《Computers and Education Open》的论文《Generative AI in higher education: Ethical and behavioral factors influencing students’ intentions to use ChatGPT》展开了一项深入的跨文化实证研究。该研究由Nina Rizun、Ovidiu Niculae Bordean、Anastasija Nikiforova、Ioana Natalia Beleiu和Aleksandra Revina共同完成,他们整合了技术接受模型(Technology Acceptance Model, TAM)、计划行为理论(Theory of Planned Behavior, TPB)、整合性技术接受与使用模型(Unified Theory of Acceptance and Use of Technology, UTAUT)以及人工智能领域的公平、问责、透明与伦理(Fairness, Accountability, Transparency & Ethics in AI, FATE)框架,构建了一个前所未有的综合研究模型,旨在系统地探究影响学生使用ChatGPT完成大学学业任务的伦理、行为和技术因素。
研究人员主要采用了基于问卷调查的定量研究方法,结合结构方程模型(Structural Equation Modeling, SEM)进行数据分析。具体技术路径包括:首先,在理论梳理和模型构建的基础上,开发了包含17个构念(如可解释性、透明度、问责、公平、隐私、信任、感知行为控制、社会影响、感知有用性、使用态度、使用意图、购买意图等)的测量量表,题项主要借鉴自已有研究的成熟量表并根据教育情境进行了调整。其次,研究通过线上渠道,在爱沙尼亚、德国、波兰和罗马尼亚四个欧洲国家的高等教育机构中,采用便利抽样与目标抽样相结合的策略,收集了曾使用过ChatGPT或其他生成式AI工具的学生的数据。最终,从528份初始回复中筛选出344份有效问卷用于分析。最后,使用偏最小二乘结构方程模型(Partial Least Squares Structural Equation Modeling, PLS-SEM)和SmartPLS 3.3.9软件对整合模型进行了检验,评估了测量模型(包括信度、效度)和结构模型(包括路径系数、假设检验),以验证所提出的23条研究假设,并探究各因素对学生使用与购买ChatGPT意图的影响机制。
4. 结果
4.1. 测量模型评估
为确保数据的可靠性和有效性,研究首先对测量模型进行了评估。通过迭代删除了个别负载值较低的测量题项后,最终模型的所有构念均显示出可接受的内部一致性信度(Cronbach‘s α和复合信度)和收敛效度(平均方差萃取值)。区别效度通过了Fornell-Larcker准则、交叉负载和异质-单质比(HTMT)的检验。此外,所有预测变量的方差膨胀因子(VIF)值均低于5.0的阈值,表明模型不存在多重共线性问题。
4.2. 结构模型与假设检验
通过对结构模型的评估,研究检验了关于ChatGPT伦理认知、使用行为方面以及技术采纳因素对学生使用和购买意图影响的23条假设,其中20条获得了数据支持。
- •
伦理因素的作用路径:研究发现,在FATE框架的伦理构念中,可解释性(H1: β=0.251, p<0.001)和隐私(H6: β=0.286, p<0.001)是对信任最强烈的正向预测因子。透明度不仅直接正向影响公平性(H7: β=0.255, p=0.001),也通过影响可解释性(H2: β=0.248, p<0.001)间接作用于信任。问责制正向影响公平性(H3: β=0.247, p=0.002),而公平性又进一步正向影响信任(H5: β=0.150, p=0.010)。然而,问责制对可解释性的直接影响(H4)以及信任对使用意图的直接影响(H9)未得到支持。一个关键的发现是,信任并不直接转化为使用意图,而是通过显著提升学生对ChatGPT的感知性能(H8: β=0.381, p<0.001)来间接发挥作用。
- •
行为因素的核心驱动:来自计划行为理论的行为构念被证明是预测使用意图的强大力量。其中,大学教授施加的社会影响(H13: β=0.219, p<0.001)是促进学生使用ChatGPT的最强行为驱动力,甚至超过了同事的社会影响(H11: β=0.148, p=0.012)。此外,学生对自身使用ChatGPT能力的感知行为控制(H10: β=0.122, p=0.032)也显著正向预测其使用意图。有趣的是,教授的社会影响还直接正向预测了学生的购买意图(H12: β=0.200, p=0.001)。
- •
技术采纳因素的传统与验证:研究验证了技术接受模型中的经典路径。感知性能正向影响易用性(H14: β=0.472, p<0.001)和使用态度(H15: β=0.220, p<0.001)。易用性则正向影响感知有用性(H16: β=0.563, p<0.001)和使用态度(H17: β=0.182, p=0.001)。最终,感知有用性(H19: β=0.200, p=0.003)和使用态度(H20: β=0.163, p<0.001)共同正向影响使用意图。此外,使用意图显著正向影响购买意图(H21: β=0.459, p<0.001)。
- •
调节效应:研究假设的伦理感知与有用性的交互作用对使用意图的调节效应(H22),以及国家背景对使用意图与购买意图关系的调节效应(H23),在模型中未得到显著支持。
5. 结论与讨论
这项研究通过构建并实证检验一个整合了FATE、TAM、TPB和UTAUT的理论模型,为我们理解高等教育中学生采纳ChatGPT的复杂决策过程提供了全新的、多维的视角。其结论深刻地揭示了伦理、行为和技术因素在其中交织作用的动态图景。
首先,研究明确了伦理考量的关键作用及其独特的影响路径。公平、问责、透明、隐私和可解释性等伦理原则并非空中楼阁,它们切实地塑造着学生对AI工具的信任。特别是可解释性和隐私,被确定为建立信任的最重要基石。然而,一个颠覆性的发现是,这种信任并不像在许多传统技术采纳研究中那样,直接转化为使用行为。相反,信任更多地是作为一种“质量信号”,通过提升学生对ChatGPT输出性能(如准确性、匹配度)的评价来间接促进使用。这意味着,学生可能在潜意识中将伦理合规性视为系统可靠性和有效性的代理指标,而非独立的采纳动机。这对AI开发者和教育机构提出了重要启示:仅仅宣称符合伦理不足以驱动使用,必须将伦理原则(如透明、可解释)切实转化为可感知的、更优的系统性能。
其次,研究凸显了行为因素,尤其是社会情境力量的压倒性影响。大学教授的社会影响力被证明是预测学生使用乃至付费意愿的最强行为变量,其影响力甚至超过了同龄人。这突显了教师在新技术融入学术实践过程中的“守门人”和“示范者”关键角色。当教授对AI工具持开放或鼓励态度时,能极大地合法化其使用,降低学生的感知风险和社会压力。同时,学生对自己掌控和使用该技术能力的信心(感知行为控制)也显著推动采纳。这表明,培养学生的“AI素养”和操作技能,与制定清晰的伦理使用指南同等重要。
最后,研究证实了经典技术接受模型在生成式AI语境下的持续相关性,感知有用性和易用性仍然是形成积极使用态度和最终意图的重要基础。然而,这些技术感知因素被嵌套在一个更广阔的行为规范与伦理评估网络之中。
综上所述,本研究超越了单一理论视角的局限,首次在一个框架内实证连接了AI伦理、社会行为心理学和技术接受理论。它不仅揭示了学生使用ChatGPT是一个理性性能评估、社会规范遵从和隐性伦理风险权衡的综合过程,更重要的是指明了促进高等教育中负责任AI集成的实践方向:教育机构应制定融合伦理准则(基于FATE框架)与明确使用规范的政策;教师需要通过积极引导和示范,塑造健康的使用文化;同时,应开展技能培训,提升学生的批判性使用能力和感知控制感。唯有通过这种技术、行为与伦理“三位一体”的协同推进,才能最大化生成式AI的教育潜能,同时有效管控其风险,引导其真正服务于学生的学习与发展。