LLLMs:一项基于数据的调查,探讨大型语言模型局限性的研究进展
《ACM Computing Surveys》:LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models
【字体:
大
中
小
】
时间:2026年03月21日
来源:ACM Computing Surveys
编辑推荐:
大型语言模型(LLM)研究局限性从2022至2025年显著增长,ACL和arXiv相关论文分别增长五倍和八倍,其中2025年LLM研究占比超30%。主要研究问题包括推理能力不足(占比最高)、泛化、幻觉、偏见及安全风险,ACL主题分布稳定而arXiv更关注安全风险、对齐、知识编辑等新兴方向。数据集和验证方法已开源。
要查看此由 AI 生成的摘要,您必须具有高级访问权限。
摘要
摘要
大型语言模型(LLM)的研究发展迅速,同时人们对它们的局限性也日益关注。在这项调查中,我们采用自下而上的方法,对 2022 年至 2025 年初关于 LLM 限制性的研究进行了数据驱动的半自动化审查。从 250,000 篇 ACL 和 arXiv 论文中,我们通过关键词过滤、基于 LLM 的分类以及专家标签验证和主题聚类(使用 HDBSCAN+BERTopic 和 LlooM 两种方法)筛选出了 14,648 篇相关论文。我们发现,从 2022 年到 2025 年,ACL 中与 LLM 相关的论文数量增加了五倍,而 arXiv 中的相关论文数量增加了近八倍。自 2022 年以来,LLM 的研究发展更加迅速,到 2025 年时,这类论文已占 LLM 论文总数的 30% 以上。推理 是研究最多的局限性,其次是 泛化能力、幻觉现象、偏见 和 安全性。ACL 数据集中的主题分布相对稳定,而 arXiv 的主题分布则偏向 安全风险、一致性、幻觉现象、知识编辑 和 多模态。我们提供了 LLM 研究趋势的定量分析,并发布了一个带有注释的摘要数据集和经过验证的方法论,详情请访问:github.com/a-kostikova/LLLMs-Survey。
AI 摘要
AI 生成的摘要(实验性版本)
此摘要是使用自动化工具生成的,并非由文章作者撰写或审核。它旨在帮助发现新内容、帮助读者评估文章的相关性,并协助来自相关研究领域的读者理解文章内容。它是对作者提供的摘要的补充,作者提供的摘要仍是文章的官方摘要。完整文章才是权威版本。点击此处了解更多。
点击 此处 对摘要的准确性、清晰度和实用性进行评论。您的反馈将有助于改进未来的摘要版本。
要查看此由 AI 生成的通俗语言摘要,您必须具有高级访问权限。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号