DeepCaps-Transformer:利用深度胶囊网络和Transformer模型进行文化文物解读

《ARABIAN JOURNAL FOR SCIENCE AND ENGINEERING》:DeepCaps-Transformer: Cultural Artifact Interpretation Using Deep Capsule Networks and Transformer Models

【字体: 时间:2026年02月12日 来源:ARABIAN JOURNAL FOR SCIENCE AND ENGINEERING 2.9

编辑推荐:

  提出DeepCaps-Transformer框架,结合胶囊网络与Transformer模型,采用SMOTE/ADASYN平衡数据集,Squash CNN提取视觉特征,融合DCN与注意力模块进行分类,通过HSBFOA优化损失函数,实现99.12%准确率及1.40%误分类率,提升文化遗产分析的准确性与可解释性。

  

摘要

利用人工智能解读文化遗物在遗产保护与分析领域受到了广泛关注。然而,现有的深度学习模型在泛化能力、计算复杂性和可解释性方面存在不足,尤其是在处理多样化遗物数据集时。为了解决这些问题,DeepCaps-Transformer结合了胶囊网络(Capsule Network)和Transformer模型,提供了一个高效、准确且易于解释的文化遗物理解框架。该框架仅进行纯视觉分类,不包含任何生成式或基于GPT的文本解释组件。首先,从“文化遗产视觉数据集”(Cultural Heritage Visual dataset)中收集输入图像,并通过合成少数样本过采样技术(Synthetic Minority Over-sampling, SMOTE)和自适应合成采样技术(Adaptive Synthetic Sampling, ADASYN)对图像进行预处理,以平衡类别分布并提升模型泛化能力。随后,利用轻量级卷积架构——Squash卷积神经网络(Squash Convolutional Neural Network, CNN)提取视觉特征,该网络能够以较少的参数捕捉关键的风格特征和遗物轮廓。在分类阶段,采用了一种结合深度胶囊网络(Deep Capsule Network, DCN)和带通道注意力机制(Channel-wise Attention)的Transformer编码器的混合模型。胶囊网络负责捕捉空间层次结构和方向特征,而Transformer则通过集成挤压-激励(Squeeze-and-Excitation, SE)模块来增强显著通道信息。最后,通过创新的混合Secretary Bird与Fossa优化算法(Hybrid Secretary Bird with Fossa Optimization Algorithm, HSBFOA)对损失函数进行优化。这些技术是在Python平台上实现的,其性能表现(准确率为99.12%,误分类率为1.40%)优于多种现有方法。总体而言,所提出的DeepCaps-Transformer在提供准确、可靠且具有上下文意识的文化遗物解读方面表现出色,展现了其在跨领域遗物分析中的巨大潜力。

利用人工智能解读文化遗物在遗产保护与分析领域受到了广泛关注。然而,现有的深度学习模型在泛化能力、计算复杂性和可解释性方面存在不足,尤其是在处理多样化遗物数据集时。为了解决这些问题,DeepCaps-Transformer结合了胶囊网络(Capsule Network)和Transformer模型,提供了一个高效、准确且易于解释的文化遗物理解框架。该框架仅进行纯视觉分类,不包含任何生成式或基于GPT的文本解释组件。首先,从“文化遗产视觉数据集”(Cultural Heritage Visual dataset)中收集输入图像,并通过合成少数样本过采样技术(Synthetic Minority Over-sampling, SMOTE)和自适应合成采样技术(Adaptive Synthetic Sampling, ADASYN)对图像进行预处理,以平衡类别分布并提升模型泛化能力。随后,利用轻量级卷积架构——Squash卷积神经网络(Squash Convolutional Neural Network, CNN)提取视觉特征,该网络能够以较少的参数捕捉关键的风格特征和遗物轮廓。在分类阶段,采用了一种结合深度胶囊网络(Deep Capsule Network, DCN)和带通道注意力机制(Channel-wise Attention)的Transformer编码器的混合模型。胶囊网络负责捕捉空间层次结构和方向特征,而Transformer则通过集成挤压-激励(Squeeze-and-Excitation, SE)模块来增强显著通道信息。最后,通过创新的混合Secretary Bird与Fossa优化算法(Hybrid Secretary Bird with Fossa Optimization Algorithm, HSBFOA)对损失函数进行优化。这些技术是在Python平台上实现的,其性能表现(准确率为99.12%,误分类率为1.40%)优于多种现有方法。总体而言,所提出的DeepCaps-Transformer在提供准确、可靠且具有上下文意识的文化遗物解读方面表现出色,展现了其在跨领域遗物分析中的巨大潜力。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号