用于可解释神经网络的对齐-可逆性正则化

《IEEE Transactions on Pattern Analysis and Machine Intelligence》:Alignment-Invertibility Regularization for Explainable Neural Networks

【字体: 时间:2026年02月20日 来源:IEEE Transactions on Pattern Analysis and Machine Intelligence 18.6

编辑推荐:

  基于约束优化的深度学习可解释性提升方法。提出Bort和DBort优化器,通过数学约束实现模型参数的可解释性增强,验证了在主流模型和图像数据集上的有效性。

  

摘要:

深度学习对社会产生了深远影响,然而深度神经网络的固有特性限制了其在高可靠性行业中的进一步应用。为了解开这些“黑箱”的神秘面纱,许多研究试图通过观察或影响模型的内部变量来提高模型的可解释性。然而,现有的方法大多依赖于启发式手段,缺乏严谨的理论基础,往往需要复杂的模型修改或重新设计。本研究首先明确了可解释性的两个基本属性:对齐性和可逆性,为严谨的可解释性分析提供了理论支撑。在此基础上,我们提出了Bort——一种即插即用的优化器,它通过对模型参数施加有界性和正交性约束来提升可解释性。这些约束是从对齐性和可逆性原理中推导出来的。鉴于传统优化器无法有效利用数据特征进行精确的因果分析,我们开发了一个具有数据感知能力的扩展版本DBort,其中整合了一个辅助损失项。有趣的是,在线性情况下,DBort会收敛到主成分分析(PCA)。通过对惩罚项设计的深入分析,我们发现基于
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号