释放奇异值的力量,实现大型预训练模型的参数高效微调

《IEEE Transactions on Multimedia》:Unleashing the Power of Singular Values for Parameter-Efficient Fine-Tuning of Large Pre-Trained Models

【字体: 时间:2026年02月28日 来源:IEEE Transactions on Multimedia 9.7

编辑推荐:

  参数高效微调方法PiVot利用奇异值分解初始化低秩矩阵,通过优化关键奇异值提升模型迁移效率,相比LoRA减少16倍参数量,在多任务中表现更优。

  

摘要:

大型预训练模型(LPMs)在自然语言处理和计算机视觉任务中取得了显著的成功。然而,对这些模型进行完全微调以适应下游任务会带来高昂的内存成本,这在资源受限的环境中构成了挑战。参数高效微调(PEFT)方法,如LoRA,通过仅更新一小部分参数来缓解这一问题。尽管这些方法效率较高,但它们通常对低秩矩阵使用随机初始化,这可能导致梯度下降过程中收敛速度变慢且稳定性降低,同时由于起始点不佳而降低泛化能力。在本文中,我们提出了PiVot,这是一种新颖的PEFT方法,它利用奇异值分解(SVD)来初始化低秩矩阵,其中关键的奇异值被作为可训练参数。具体来说,PiVot对预训练的权重矩阵进行SVD处理,以获得最佳的秩-r近似值,重点关注前r个奇异值,这些奇异值包含了矩阵超过99%的结构信息。通过将这些前r个奇异值视为可训练参数,PiVot有效地扩展了预训练权重矩阵的基本子空间,从而实现对新领域的高效和有针对性的适应。在各种LPMs上的广泛实验表明,与LoRA相比,PiVot在自然语言理解、文本到图像生成和图像分类等任务中表现更优,同时所需的可训练参数数量减少了16倍。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号