《Frontiers in Computer Science》:A rapid review of using AI-generated instructional videos in higher education
1 引言
COVID-19大流行极大地加速了数字化转型,迫使高等教育机构迅速转向更灵活的教学形式。在此背景下,电子学习和混合式学习成为迫切解决方案,同时也重塑了高等教育机构的长期发展战略。在这种学习形式中,教学视频成为了数字学习生态系统的“心脏”。教学视频出现在大多数现代学习管理系统中,从常规大学课程到远程学习项目。在电子学习中,视频通常作为内容传递的主要学习材料,取代面对面讲座。在混合学习中,视频讲座是在线学习活动的核心,学生在家预习后,再参与面对面的课堂实践和讨论。
视频学习是指通过系统使用视频资源获取特定知识、能力和技能的过程。在数字环境中,视频学习使学习者能够通过视觉、听觉和互动方式与内容互动。视频的另一个关键优势是其灵活性:学习者可以多次重看内容,回顾困难片段,调整播放速度,或在最适合个人日程的时间学习。此外,随着自适应学习和个性化内容传递等技术的整合,学习者可以获取根据其学习节奏、认知水平或个人偏好量身定制的视频。例如,像Edpuzzle和H5P这样的互动工具允许学习者在观看视频时回答问题、完成快速评估、提供反馈或接受即时纠正。一项调查将H5P互动视频内容整合到学习管理系统的研究发现,电子学习课程中的大学生报告出的满意度显著高于其他环境中的学生。此外,教学视频,特别是教师出现在屏幕上的“谈话头部”形式,可以增强亲近感、联系感,并有助于建立“教学存在感”,这是探究社区模型的关键要素。教师的声音和视觉存在帮助学习者感觉像是在被“教导”,而不是独自学习。
与通常由人类教师和教学设计专家制作的传统教育视频不同,生成式人工智能(AI)技术(如Synthesia、HeyGen、Sora和Veo)的出现催生了一种新的教学材料形式:AI生成教学视频(AIGIV)。这些视频被定义为部分或全部内容、视觉效果、声音或主讲人由AI技术(包括自然语言处理(NLP)、文本转语音、AI虚拟形象和文本转视频)自动生成的教学材料。在视频制作中使用AI的好处在于生产速度快、成本低以及大规模个性化的潜力。用于视频创作的AI工具可以使制作民主化,使个人和小型组织,特别是那些可能没有传统视频制作方法资源的机构,更容易进行视频制作。
随着大学越来越多地尝试将AI整合到教学中,AIGIVs的新兴存在为创新教育者增添了兴奋感。早期研究已经开始记录AIGIVs的使用,表明迫切需要了解其更广泛的影响。考虑到这一快速发展的趋势,有必要审视当前现状:迄今为止观察到了哪些益处?出现了哪些风险或局限性?早期研究关于这些视频在未来教学设计中可能扮演的角色暗示了什么?鉴于这一教育趋势的新颖性和潜在影响,对现有文献进行快速回顾既及时又必要。这样的回顾有助于综合当前证据,澄清AIGIVs的机遇和挑战,并确定需要进一步调查的差距。它还为在AIGIVs这一不断增长的领域中做出明智的教学决策、设计负责任的组织策略和塑造未来研究奠定了重要基础。
因此,本研究旨在对现有文献进行快速回顾,以综合关于在高等教育中使用AIGIVs的新兴证据。时间边界设定为2023-2025年,以捕捉后ChatGPT时代,在此期间,包括ChatGPT(于2022年11月推出)、DALL·E 2、HeyGen、Sora、Synthesia和Veo 2在内的生成式AI技术开始实现全自动化或AI辅助的视频生产。本回顾解决了以下研究问题:
研究问题1(RQ1):为高等教育创建AIGIVs采用了哪些模式和技术,这些方法在自动化和人类参与方面有何不同?
研究问题2(RQ2):AIGIVs如何被整合到教学实践中,它们服务于哪些教学功能?
研究问题3(RQ3):关于在高等教育中使用AIGIVs报告了哪些益处和风险?
2 方法论
2.1 研究设计
本研究采用快速回顾设计,及时综合关于高等教育中AIGIVs的新兴文献。快速回顾是系统回顾的简化形式,保留了透明度和严谨性的核心原则,以便为政策和实践更快地提供证据。根据这种方法,回顾遵循了PRISMA(系统回顾和元分析的首选报告项目)推荐的关键步骤,包括明确的资格标准、多数据库搜索策略、系统筛选和透明报告研究选择。为了提高方法学清晰度,研究问题也使用PICO结构进行框架:
• 人群(P):高等教育中的学生和教育者,以及在专业和社会部门中明确使用AIGIVs作为教学材料的成人学习者。
• 干预(I):干预聚焦于AIGIVs,定义为部分或全部内容、视觉效果、声音或主讲人由AI工具(例如Sora、HeyGen、DALL·E 2、AI虚拟形象、文本转视频工具)生成的视频。
• 比较(C):将AIGIVs与教师制作的视频进行比较,或将AIGIVs作为独立干预进行检查。
• 结果(O):报告的学习成果、学习者和教师看法、伦理和认知关注点,以及其他教学或组织影响。
本快速回顾的目的不是提供该领域的详尽、全面图谱,而是综合最新的、经过同行评审的证据(2023年起),关于AIGIVs如何被生产和使用的,以及迄今为止已识别出的益处和风险。
2.2 搜索策略
文献搜索在四个主要学术数据库中进行:Web of Science、Scopus和IEEE Xplore。Google Scholar数据库用于搜索显示的前200-300条结果中的额外研究。
在线搜索于2025年9月进行,重点关注2023年起发表的文献,这标志着ChatGPT和Sora等生成式AI工具广泛使用的时期。应用了以下布尔搜索字符串:
(“text to video” OR “text-to-video” OR “AI video generation” OR “AI-generated videos” OR “AI-generated learning videos” OR “AI-generated teaching videos” OR “AI-generated instructional videos” OR “AI-generated avatars”) AND (“education”)
搜索在每个数据库中限制如下:
• Web of Science:文章、会议论文和评论。
• Scopus:文献类型(会议论文、文章和评论)和语言(英语)。
• IEEE Xplore:期刊文章和会议论文。
• Google Scholar:用于识别上述数据库未索引的其他相关文章。
2.3 纳入和排除标准
如果研究满足以下所有条件,则被纳入:
• 明确调查AIGIVs在教育、培训或专业学习环境中的使用或教学应用;
• 涉及高等教育或密切相关背景(例如,成人学习或专业教育)。
• 报告与使用AIGIVs进行教学、学习或评估相关的实证数据、概念分析或基于设计的实施。
在全文筛选期间,研究因以下原因被排除:
• 仅关注技术性视频生成算法/模型,没有教育应用;
• 一般性地研究教育中的AI,但未将AIGIVs作为教学设计或传递的一部分;
• 调查传统的教师制作视频或缺乏AI生成组件的通用视频学习;无法获取全文。
2.4 筛选过程
PRISMA流程图总结了筛选过程。初始搜索在四个数据库中共获得118项研究:Web of Science 30项,Scopus 52项,IEEE Xplore 31项,通过Google Scholar手动识别出5项额外研究。去除12项重复后,剩余106项研究进行标题和摘要筛选。
在标题和摘要筛选阶段,研究因多种原因被排除:论文未提及或涉及AI生成视频(n = 15);研究仅关注AI视频生成工具的技术开发(n = 48);或研究超出高等教育或成人学习背景(n = 8)。
然后对35项全文研究进行了详细评估。在全文筛选阶段,研究在以下情况下被排除:仅关注视频生成的技术算法或模型,没有教育应用(n = 8);涉及教育中的AI但未在教学设计或传递中使用AIGIVs(n = 2);检查一般视频学习或传统的教师制作视频,没有AI生成组件(n = 1);或未报告与研究问题相关的结果(n = 9)。最终,15项研究符合所有纳入标准,被纳入最终综合。
2.5 数据提取与分析
从15项纳入研究中系统提取关键信息到结构化的Excel矩阵中。对于每项研究,记录了以下字段:出版年份、国家、研究设计、教育或培训水平以及PICO组成部分。纳入研究的特征已总结在表1中。
如表1所示,回顾的研究使用了各种研究设计,包括探索性分析、混合方法、调查、定性访谈、实验设计和叙述性回顾。地理分布包括来自尼日利亚、英国、希腊、澳大利亚、美国、加拿大、中国、瑞士、阿联酋、奥地利、意大利和沙特阿拉伯等国的贡献,反映了全球对AIGIVs的兴趣。各项研究报告了多种AI工具,其中Sora成为最常被检查的平台。其他工具包括Veo 2、HeyGen、ChatGPT和DALL·E 2。纳入的研究涉及一系列目标,从探索Sora和HeyGen等AI工具的技术能力,到评估教学效果和学习者看法。几项研究还检查了伦理关注和公众态度,反映了对在教育中使用AI生成视频的多方面观点。
为了回答研究问题,进行了定性内容分析,以系统解释回顾研究中的模式和意义。分析遵循三个迭代阶段。首先,将所有提取的发现分割成45个意义单元,并分配描述性代码,代表关键思想(例如,使用Sora自动化教学视频创建,通过HeyGen生成基于虚拟形象的教学视频……)。其次,相似的代码被分为八个概念类别,反映了更广泛的方面,例如技术局限性和伦理关注。最后,这些类别被归纳为四个主要主题:(1)基于AI的教学视频生成的模式和技术,(2)将AIGIVs应用于教学和反思性教学法,(3)将AIGIVs整合入教育的报告益处,以及(4)将AIGIVs整合入教育的报告风险和挑战。结果详见表2。
2.6 可靠性
由于本回顾由单一作者进行,通过与两位教育技术领域的同事进行同行验证来增强可靠性。一名研究人员独立参与阅读和提取纳入研究中的文本片段。作者与该研究人员在提取46个意义单元上达成的一致性计算为41个(≈89%),表明高度一致性。对于剩余的分歧,邀请了一位教育技术领域的第三位专家加入共识讨论。在此期间,三位参与者共同审查了所有提取的片段,并就45个意义单元达成了最终共识。我们还确认了每个意义单元对应代码的分配,并完善了类别和 overarching 主题的分组。
3 发现
3.1 主题1. 基于AI的教学视频生成的模式和技术
图2说明了教学视频生产中使用的AI工具分布(N = 15个编码实例)。全AI生成的视频占回顾证据的73.4%,而AI辅助的人工制作视频生产受到的关注较少。Sora被研究得最频繁(46.7%),其次是HeyGen(20.0%)、DALL·E 2(13.3%)和ChatGPT(13.3%),而Veo 2(6.7%)出现较少。这种分布表明了一种强烈的全自动化视频生成方法趋势。
3.1.1 类别1.1:生成全基于AI的教学视频
15项研究中的11项分析了通过生成式AI模型自动化视频创建,这些模型能够以最少的人力投入生产完整的教学视频。最常被提及的系统是Sora,一种文本转视频模型,用于从讲故事到医学培训模拟等各种情境。类似地,Veo 2被用于患者教育情境中生成健康相关的教学视频。HeyGen也在三项研究中以全自动模式使用,通过基于脚本的输入创建带有AI虚拟形象和语音合成的视频。总体而言,这些工具代表了专注于效率和自动化的生成式AI应用新浪潮。
3.1.2 类别1.2:在AI辅助下共同创建教学视频
相比之下,一小部分研究探索了AI辅助的视频生产,其中教育者仍然是主要设计者,而AI系统充当创意伙伴。例如,DALL·E 2被用于生成视觉组件,整合到教师制作的视频中。ChatGPT与多模态工具(如PowerPoint或/和SADTalker)结合,支持教育者共同创建教学视频或起草脚本。这些例子说明,AI辅助可以在保持教学控制的同时提高创意效率,将人类在内容和教学法方面的专业知识与机器生成的视觉效果和叙述相结合。
3.2 主题2. 将AIGIVs应用于教学和反思性教学法
主题2突出了AI生成教学视频(AIGIV)的两个主要教学方向:(1)采用AIGIVs作为教学替代方案,以及(2)将AIGIVs整合到AI增强的反思性教学法中。
3.2.1 类别2.1:采用AIGIVs作为教学替代方案
五项研究比较了AI生成视频与教师制作视频,以评估其教学效果。在这些实验中,AIGIVs产生的学习成果与通过教师制作视频实现的学习成果相当,表明它们在某些教学情境中可以可行地充当替代品。例如,在管理课程中,AI生成的虚拟形象和叙述者为本科生带来的学习成果与人类生成的视频相当。此外,关于学生看法的研究揭示了他们对AI生成虚拟形象的普遍积极态度。
3.2.2 类别2.2:AI增强的反思性教学法
除了直接的内容传递,三项研究将AIGIVs定位为伦理和批判性反思的催化剂。两项研究描述了使用AI虚拟形象来鼓励社会科学和商业伦理课程中的伦理反思和道德推理。在一个案例中,作者围绕基于AI虚拟形象的视频场景重新设计了整个伦理课程,为学生创造了探索复杂困境的机会。随后,10名受访学生认为AIGIVs适合教学,如果在设计得当的情况下,在某些情况下甚至比人类教师更可取。另一项研究提到使用Sora作为一个强大的工具,通过沉浸式讲故事视频提供创造性和反思性学习的机会。
3.3 主题3. 将AIGIVs整合入教育的报告益处
主题3综合了将AIGIVs整合入教育环境的报告益处。如表2所总结,出现了三个以益处为导向的类别:(1)提高视频生产的效率和可扩展性,(2)增强学习中的可及性和个性化,以及(3)增强情感参与和记忆保留。
3.3.1 类别3.1:提高视频生产的效率和可扩展性
在四个相关代码中,AIGIVs始终与视频生产中更高的效率和可扩展性相关。关于Sora和相关AI视频工具的研究报告称,与传统的录制工作流程相比,教育者和机构可以更快、更低成本地生产教学视频。此外,公众和专业评论强调,AI视频平台可以使教育视频制作民主化,使较小的机构、个体教育者甚至学习者能够在没有大量财政或技术资源的情况下参与内容创建。总的来说,这些发现表明,AIGIVs可以支持更可持续和可扩展的视频教育模式,特别是在传统上生产能力受限的情境中。
3.3.2 类别3.2:增强学习中的可及性和个性化
这个类别由两个代码形成,强调了AIGIVs如何改善可及性和个性化。例如,在多语言高等教育环境中,AI生成的虚拟演讲者被用于提供多种语言的内容,使电子学习材料对多样化的学生群体更具可及性。这些视频允许学习者根据自己的偏好选择语言选项,从而减少语言障碍。此外,据报道,AI生成的视频支持个性化学习体验,例如通过调整节奏和呈现风格。尽管当前的证据基础很小,但这初步证据表明,当与深思熟虑的教学设计结合时,AIGIVs可以有助于创造更具包容性和以学习者为中心的环境。
3.3.3 类别3.3:增强情感参与和记忆保留
第三个益处类别聚焦于情感参与和记忆保留,借鉴了三个代码。例如,实验结果表明,与有真实教师的视频相比,AI生成的教学虚拟形象可以捕捉学习者的注意力,引发更强的情绪反应,并支持更好地回忆关键思想。在语言和高等教育情境中,学生报告AIGIVs令人难忘且引人入胜,这反过来支持了他们记忆和应用内容的能力。
3.4 主题4. 将AIGIVs整合入教育的报告风险和挑战
主题4综合了与将AIGIVs整合入高等教育相关的风险和挑战。如表2所总结,11个风险相关代码被分为三个类别:伦理关注、技术和设计局限性,以及认知可靠性和真实性。在比较生产模式时,所有这些风险和挑战都与全AI生成的视频相关。
3.4.1 类别4.1:伦理关注
三项研究强调了围绕AI生成视频的创建和使用的伦理关注。例如,一项对292条关于Sora的公众评论的分析揭示出担忧,即AIGIVs可能威胁人类自主权、数据隐私和版权,例如能够未经授权复制个人图像或模糊谁控制内容。类似地,进一步的评论分析指出了错误信息和偏见风险,用户担心AI生成视频可能被部署来传播扭曲的叙述。此外,在医学和公共教育情境中提出了与深度伪造相关的伦理风险,高度真实但合成的视频可能被用来捏造事件或陈述。这些关注凸显了明确标签和提高AI素养的必要性。
3.4.2 类别4.2:技术局限性
AIGIVs仍然存在技术问题,可能影响其在教育中的有效性。例如,现有研究表明,Sora在可视化内容方面仍然存在显著局限性,例如物理上不可信的运动生成、不自然的物体变形、不准确的物理交互,以及在神经外科领域生成视频时出现异常行为呈现。类似地,Sora生成的视频在解剖学内容和常见结构(如手指或牙齿)中也包含错误。这些发现表明,将AIGIVs整合入课程需要对AIGIVs的内容质量进行严格验证。
3.4.3 类别4.3:不真实和不可靠的内容
最后,一些研究人员对AIGIVs是否可信表示了担忧。一个重要的关注点是真实内容与人工内容之间界限的模糊。在教育环境中,这种模糊性可能导致学习者质疑教师是真正的专家还是AI模拟。此外,其他研究报告了对AIGIVs中信息准确性的担忧。这带来了传播错误信息的风险。
4 讨论
本快速回顾综合了关于AIGIVs在高等教育中如何生产和使用的新兴证据,以及它们的采用如何引发教学机遇和关键风险。图3提出了一个整合流程模型,将发现中识别的四个主题联系起来:(1)基于AI的教学视频生成的模式和技术,(2)将AIGIVs应用于教学和反思性教学法,(3)将AIGIVs整合入教育的报告益处,以及(4)将AIGIVs整合入教育的报告风险和挑战。该模型不是将技术、教学用途和结果视为独立元素,而是强调它们的顺序性和相互关联性。
在模型的左侧,AI技术被分为两种不同的生产模式:全基于AI的教学视频生成(例如Sora、HeyGen、Veo 2)和AI辅助的人工制作视频生产(例如DALL·E 2、ChatGPT)。全自动化工具提供速度和可扩展性,能够以最低的人力成本实现低成本视频创建。同时,这种模式也集中了大部分报告的风险,包括伦理关注、技术局限性以及不真实和不可靠的内容。相比之下,AI辅助工作流程在教育者塑造内容和情境方面保留了更强的作用。这种混合模式在当前的文献中出现较少,但始终与对质量的更精细控制以及与学习目标的一致性相关。
模型的中心部分涉及AIGIVs如何被教学应用。第一种方法是采用AIGIVs作为教学替代方案,即AI生成视频在讲座或解释性片段中取代教师制作的录音。在多项实验中,与人类制作的视频相比,这种替换在短期学习表现上没有导致显著差异。这些发现表明,AIGIVs可以作为传统视频讲座的可行替代品,在提供相当认知成果的同时减少生产努力。然而,几项研究也报告说,学习者仍然重视人类教师的社会和情感存在,这表明替换应慎重考虑。第二种方法强调AI增强的反思性教学法。AIGIVs不仅仅被视为内容传递的工具,而是作为伦理推理、讨论和元认知参与的提示。例如,基于AI虚拟形象的教学视频被用于在商业伦理和社会科学课程中呈现复杂的困境和利益相关者观点,鼓励学生分析、辩论并证明其决定的合理性。这种方法突出了AIGIV在学生高阶学习中的有前景的应用。
模型的右侧捕捉了从AIGIVs的教学应用中出现的益处和风险。在益处方面,回顾的研究集中在AIGIVs的三个主要贡献上。首先,AIGIVs可以提高视频生产的效率和