
-
生物通官微
陪你抓住生命科技
跳动的脉搏
Nature热议:人工智能可以和人类表达一样——有些人的大脑能抵抗它的吸引力吗?
《nature》:AI can ‘same-ify’ human expression — can some brains resist its pull?
【字体: 大 中 小 】 时间:2026年03月14日 来源:nature
编辑推荐:
新出现的证据表明,LLM的输出可以塑造人类用户的文本和思想。
当今人工智能模型的核心是由真人创建的大量训练数据(文本、视频和图像),用于教模型如何识别模式和生成内容。人们当然在训练人工智能系统,但人工智能也在训练我们吗?
越来越多的论文报告说,人们倾向于从他们使用的大型语言模型(LLM)中学习写作模式、推理方法甚至观点。一些研究人员表示,这种影响可能会在人类写作中造成同一性,并警告说,这种影响甚至可能扩展到不是人工智能第一手用户的人类所写的文本。
“如果你周围的人都在与这些LLM互动,并采用他们的写作风格、观点和推理方式,那么在某种程度上,你周围的人会变得如此之多,以至于这似乎是构建信息的更社会正确的方式,”洛杉矶南加州大学(University of Southern California)的计算机科学家、今天发表的一篇评论文章的合著者Zhivar Sourati说,他认为LLM正在使人类话语同质化。
但也有人断言,人类大脑可能仍会抵制人工智能的扁平化效应。在去年11月作为预印本发布到arXiv服务器上的一项研究中,作者发现了一些保留了“独特的人类风格签名”的作家群体,他们可能更看重真实性,而不是人工智能辅助带来的效率提升。这项研究尚未经过同行评审。
在去年发布在arXiv上的一篇未经过同行评审的预印本中,Sourati和他的合著者分析了ChatGPT于2022年推出前后的Reddit帖子、新闻内容和预印本研究。研究小组发现,在该平台发布后发布的文本在风格上往往不如之前发布的文本多样化。
在今天的评论文章中,作者认为这种现象也困扰着人们的观点和推理。他们指出,在arXiv上发布的一份未经审查的2023年预印本中,参与者对LLM表达了对社交媒体的积极或消极感受。在这次接触之后,参与者的观点转向了LLM的观点。
英国埃克塞特大学(University of Exeter)研究经济学和人工智能的奥利弗·豪泽(Oliver Hauser)表示,作者说个人可以从人工智能中受益,这是一个公平的观点,因为人工智能可以帮助你写得更好,让别人更容易理解你。但一旦这种做法被广泛采用,集体受害最大。