《Technological Forecasting and Social Change》:Responsible AI in knowledge creation: An exploration of generative AI's opportunities and risks
编辑推荐:
本研究基于SECI知识转化模型,探讨生成式AI在知识创造与管理的潜力与挑战,发现其通过多样化表达渠道和个性化交互提升效率,但也引发数据安全、信息偏见等风险,需构建技术-伦理-社会协同的治理框架。
戴传平|李勤倩|贾世珍(Jasper Jia)|刘刚|托马斯·金克尔(Tomá? Kincl)|尼克·哈利(Nick Hajli)
中国公共部门经济研究中心,吉林大学经济学院,长春,中国
摘要
本研究利用社会化、外化、组合和内化(SECI)模型作为分析框架,探讨了生成式人工智能在知识创造和管理领域的变革潜力及内在挑战。基于专家意见的内容分析,我们的定性研究表明,将生成式人工智能整合到知识流程中是不可避免的,并且能够显著提升生产力。这些提升包括提供多样化的表达渠道、模拟个性化互动以及促进跨学科交流。然而,这些好处也伴随着重大风险,如数据安全、个人隐私和知识产权方面的威胁,以及错误信息、数据偏见和人类认知参与度降低等问题。研究结果通过强调人工智能技术在知识创造的每个阶段(社会化、外化、组合和内化)所面临的具体挑战,扩展了SECI模型的应用范围。研究强调了采取平衡方法的必要性,需要结合技术、伦理和社会文化视角来全面评估人工智能的影响。我们的研究为理解人工智能在知识管理中的作用提供了理论支持,并提出了其伦理和有效实施的可行策略,同时强调了跨学科方法和持续监管调整的重要性。
引言
生成式人工智能(Generative AI)已成为推动全球社会和经济发展的关键技术力量(Stahl和Eke,2024年)。这种类型的人工智能专注于内容创作,涵盖文本、图像、音乐等领域,自动化并增强了创造性过程,重塑了各行业对任务的构思和实施方式(Louie等人,2020年;Ameen等人,2024年)。这些能力正在颠覆通信、娱乐、教育和研究等传统行业,展示了生成式人工智能的多样性(Chen等人,2023年;Stahl和Eke,2024年)。例如,像GPT-4这样的先进语言模型能够撰写文章、报告和创意作品,改变了内容创作和信息传播的动态(Giordano等人,2024年)。专家预测,到2030年,人工智能的采用和整合可能为全球经济注入超过15.7万亿美元,释放出巨大的价值创造机会(普华永道,2023年)。
这一进展是一把双刃剑:一方面,生成式人工智能有望彻底改变内容创作,使其更加易于获取和多样化(Guo等人,2023年;Shan和Jia,2024年);另一方面,它也带来了深度伪造、错误信息、版权问题以及关于作者身份和创造力的伦理困境(Huschens等人,2023年;Susarla等人,2023年)。此外,人工智能系统的自主性要求我们重新思考治理、隐私、安全以及人类创造力和知识管理的本质(Hajli等人,2022年)。
采用生成式人工智能的一个重大关切是创造力、创新和知识管理(Bender等人,2021年)。过度依赖生成式人工智能来寻求短期解决方案可能会无意中抑制长期的创造性和创新过程(Vincent,2020年)。目前存在一些亟需填补的研究空白。首先,许多研究将技术和社会问题分开考虑,最初将生成式人工智能视为一种技术产物,随后才意识到其对社会的影响。然而,人工智能发展和应用的技术层面与社会层面之间的分离阻碍了对背后社会政治系统的全面评估。越来越多的人呼吁整合涵盖技术伦理和社会科学的理论框架,以促进扎实的跨学科研究(Susarla等人,2023年)。然而,由于学科差异和方法论挑战,进展受到限制。
其次,尽管已有大量实证研究比较了生成式人工智能与人类生成内容的效果(Jia等人,2025年),但关于生成式人工智能在知识创造方面的影响仍缺乏研究。知识创造不同于内容创造,它涉及产生新的想法和见解,这些新想法和见解可以促进对各个领域的更广泛理解。虽然生成式人工智能在内容生成方面表现出色,但它促进新知识产生的程度尚未得到充分探索。这一区别至关重要,因为知识创造不仅仅是新信息的产生,还包括以创新方式整合现有信息,从而拓展理解边界。
本研究旨在通过跨学科视角来探讨生成式人工智能系统开发和应用过程中伴随的风险。它聚焦于知识管理领域,研究大型语言模型(如ChatGPT)在任意主题上生成连贯文本所带来的风险。研究提出了以下问题:
RQ1
生成式人工智能如何影响SECI模型中概念化的四个具体知识转化过程(社会化、外化、组合和内化),每个阶段又具体面临哪些挑战?
RQ2
组织和政策制定者可以实施哪些治理机制和实际策略,在利用生成式人工智能提升知识管理流程潜力的同时,减轻已识别的风险?
本研究通过分析多方利益相关者关于生成式人工智能对知识经济影响的对话数据来探讨这些问题。这些对话涉及技术、商业、法律、教育和公共政策领域的专家。这种方法有助于系统地识别与人工智能系统相关的个体、组织和社会层面的机会和风险,同时考虑不同利益相关者的价值观和利益(Stahl等人,2017年)。
本研究通过将SECI模型应用于生成式人工智能的背景,为知识管理文献做出了重要理论贡献。虽然之前的研究已将这一框架应用于社交媒体和协作平台等技术创新,但我们的研究是首批系统分析生成式人工智能的独特能力如何改变知识管理每个阶段的研究之一。我们提出了SECI模型的理论扩展,将“生成式人工智能暗知识”这一概念纳入其中,作为与传统知识转化路径相互作用的额外维度,从而深入理解生成式人工智能算法如何以根本方式将隐性和禁止性知识纳入知识管理动态,并引发人们对生成式人工智能知识的认知、识别和解释方面的担忧。
我们的发现从三个方面促进了理论发展:首先,我们识别了知识转化周期中的阶段特定干扰,表明生成式人工智能在每个SECI阶段引入了独特的挑战,而不仅仅是统一影响知识管理;其次,我们建立了技术人工智能限制与其知识管理影响之间的概念桥梁,推进了对人工智能整合的社会技术维度的理论理解;第三,我们开发了一个多层次的治理框架,超越了技术考量,解决了塑造人工智能增强环境中有效知识管理的相互依赖的技术、组织和社会因素。这些贡献不仅推进了Nonaka框架的理论发展,也为组织应对生成式人工智能技术带来的复杂知识管理挑战提供了实际指导。
章节摘录
知识的本质
将知识作为一个概念和实用工具进行探讨,在哲学、认知科学和信息系统等学科中受到了广泛关注(Scholz等人,2024年)。Belussi和Pilotti(2002年)认为,知识与符号(术语、概念和想法)的操作密切相关,也与个体的心理模型(包括感知、认知地图、内省、记忆和推理)紧密相连。这一定义强调了知识的主观性和...
研究哲学和方法论立场
本研究采用的解释主义定性探究方法在捕捉技术和社会转型初期出现的复杂、情境敏感的现象方面具有显著优势(Creswell和Poth,2016年;Charmaz,2014年)。解释主义立场认为,关于生成式人工智能对知识管理影响的认识必须基于丰富的情境,由多个参与者共同构建,并置于具体的社会背景中...
研究结果
我们的分析旨在系统回答指导本研究的两个研究问题。对于RQ1,我们根据SECI知识创造模型的四个阶段(社会化、外化、组合和内化)组织了研究结果。这一分析框架使我们能够识别每个知识转化阶段出现的特定挑战,区分出由技术限制引起的问题和应用过程中出现的问题...
讨论
本研究探讨了生成式人工智能在知识创造和管理中的应用,突出了其潜在的好处和内在风险。通过对人工智能论坛中专家对话的内容分析,我们的定性研究表明,生成式人工智能代表了人工智能领域的重大进步,具备生成类似人类文本的能力,并能在多个领域创造多样化内容。然而,将其整合到...
结论
通过跨学科方法,本研究提供了一个全面的框架,用于理解生成式人工智能如何影响社会化、外化、组合和内化(SECI)知识管理模型的不同阶段,并强调了它所带来的多方面挑战。本研究的新贡献在于详细分析了生成式人工智能对隐性知识和显性知识过程的具体影响,以及其对...
戴传平:撰写——审稿与编辑、撰写——初稿、可视化、验证、监督、资源管理、项目管理、方法论、调查、正式分析、数据整理、概念化。李勤倩:撰写——审稿与编辑、撰写——初稿、可视化、验证、方法论、调查、正式分析、数据整理。贾世珍(Jasper Jia):撰写——审稿与编辑、撰写——初稿。刘刚:撰写——审稿与编辑、撰写——