LLLMs:一项基于数据的调查,探讨大型语言模型局限性的研究进展

《ACM Computing Surveys》:LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

【字体: 时间:2026年03月21日 来源:ACM Computing Surveys

编辑推荐:

  大型语言模型(LLM)研究局限性从2022至2025年显著增长,ACL和arXiv相关论文分别增长五倍和八倍,其中2025年LLM研究占比超30%。主要研究问题包括推理能力不足(占比最高)、泛化、幻觉、偏见及安全风险,ACL主题分布稳定而arXiv更关注安全风险、对齐、知识编辑等新兴方向。数据集和验证方法已开源。

  
要查看此由 AI 生成的摘要,您必须具有高级访问权限。

摘要

摘要

大型语言模型(LLM)的研究发展迅速,同时人们对它们的局限性也日益关注。在这项调查中,我们采用自下而上的方法,对 2022 年至 2025 年初关于 LLM 限制性的研究进行了数据驱动的半自动化审查。从 250,000 篇 ACL 和 arXiv 论文中,我们通过关键词过滤、基于 LLM 的分类以及专家标签验证和主题聚类(使用 HDBSCAN+BERTopic 和 LlooM 两种方法)筛选出了 14,648 篇相关论文。我们发现,从 2022 年到 2025 年,ACL 中与 LLM 相关的论文数量增加了五倍,而 arXiv 中的相关论文数量增加了近八倍。自 2022 年以来,LLM 的研究发展更加迅速,到 2025 年时,这类论文已占 LLM 论文总数的 30% 以上。推理 是研究最多的局限性,其次是 泛化能力幻觉现象偏见安全性。ACL 数据集中的主题分布相对稳定,而 arXiv 的主题分布则偏向 安全风险一致性幻觉现象知识编辑多模态。我们提供了 LLM 研究趋势的定量分析,并发布了一个带有注释的摘要数据集和经过验证的方法论,详情请访问:github.com/a-kostikova/LLLMs-Survey。

AI 摘要

AI 生成的摘要(实验性版本)

此摘要是使用自动化工具生成的,并非由文章作者撰写或审核。它旨在帮助发现新内容、帮助读者评估文章的相关性,并协助来自相关研究领域的读者理解文章内容。它是对作者提供的摘要的补充,作者提供的摘要仍是文章的官方摘要。完整文章才是权威版本。点击此处了解更多

点击 此处 对摘要的准确性、清晰度和实用性进行评论。您的反馈将有助于改进未来的摘要版本。

要查看此由 AI 生成的通俗语言摘要,您必须具有高级访问权限。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号