《Chinese Journal of Electronics》:Inc-ghostNet: A Lightweight Multi-Branch Ghost Module Fusion Network for Image Classification
编辑推荐:
本刊推荐:针对复杂场景下轻量化卷积神经网络(LCNNs)计算效率与特征提取能力的平衡问题,研究人员开展多分支Ghost模块融合网络(Inc-ghostNet)研究。通过融合Inception架构特征拼接与残差结构元素相加策略,引入Ghost卷积与解耦全连接(DFC)模块,在Five Flowers等数据集上实现最高90.7%的识别精度,模型参数量仅3.35M。该工作为移动端图像分类应用提供了高精度、低功耗的解决方案。
随着人工智能技术的飞速发展,卷积神经网络(CNNs)已成为图像分类领域的核心工具。从福岛邦彦的新认知机(Neocognitron)到ResNet和MobileNet的突破,CNNs在享受大数据与算力红利的同时,也面临着模型复杂度与计算资源需求的矛盾。特别是在移动设备、物联网终端等资源受限场景中,如何平衡模型精度与效率成为亟待解决的难题。
传统轻量化网络如MobileNet采用深度可分离卷积(Depthwise Separable Convolutions),ShuffleNet引入通道重排(Channel Rearrangement)技术,虽有效降低了参数规模,但特征多样性不足和感受野单一等问题仍制约着性能提升。近年来FasterNet、MobileOne等新架构虽进一步优化了计算效率,但在多尺度特征融合和通道注意力机制方面仍有提升空间。
针对上述挑战,陕西师范大学刘安安团队在《Chinese Journal of Electronics》发表最新研究,提出Inc-ghostNet轻量化网络。该网络创新性地将多分支结构与Ghost卷积相结合,通过混合特征融合策略增强多感受野特征提取能力。研究表明,在保持ResNet50 87.1%精度的基础上,参数量降低86.9%,模型体积仅9.25MB,为资源受限环境下的图像分类提供了新思路。
关键技术方法包括:1)构建多分支Ghost融合模块(Bottleneck),通过并行卷积路径提取多尺度特征;2)采用Ghost卷积替代标准卷积,利用廉价操作(Ghost Operation)生成冗余特征;3)引入解耦全连接(Decoupled Fully Connected, DFC)模块加强通道注意力;4)使用Mish激活函数(Mish(x)=x×tanh[ln(1+ex)])提升梯度流动。实验在Heywhale社区开源的Five Flowers、Three Insects等数据集上进行,使用GeForce RTX 3090 GPU,图像统一缩放至224×224像素分辨率。
模型设计
核心模块采用残差结构与Inception架构的混合策略。如公式(1)所示,传统残差模块YR=F(x)+x仅实现单路径特征增强,而Inc-ghostNet的多分支模块(公式(2) YM=H[x1,x2,x3]+x)通过拼接三分支输出增强特征多样性。其中Ghost卷积将标准卷积分解为少量卷积核与线性变换的组合,显著减少计算量。
消融实验
在Five Flowers数据集上的对比表明:原始ResNet50准确率85.0%,单独引入Mish激活函数提升至86.0%,Ghost卷积版本参数量降至21.00M但精度保持85.4%。DFC模块虽将参数量压缩至10.90M,但组合Ghost+DFC时出现精度下降至84.3%。最终Inc-ghostNet完整架构以3.35M参数量实现87.1%准确率,计算量(FLOPs)仅336.02M,验证了模块协同设计的有效性。
跨数据集验证
在Three Insects数据集上,Inc-ghostNet以90.7%准确率超越MobileNet V3(90.4%),参数量仅为后者的61.1%。在Cat and Dog分类任务中,其90.0%的准确率较GhostNet V2提升3.5个百分点,模型体积缩小51.6%。与计算量达4201.56MFLOPs的InceptionNeXt相比,Inc-ghostNet在精度提升2.5%的同时,计算效率提高12.5倍。
研究结论表明,Inc-ghostNet通过多分支Ghost模块融合机制,在保持轻量化特性的同时实现了优于主流模型的特征提取能力。虽然该模型在CIFAR-10等复杂数据集上的性能仍需进一步验证,但其为移动端视觉应用提供的新范式,对边缘计算设备部署深度学习模型具有重要参考价值。未来工作将聚焦于模块动态剪枝和跨模态特征融合等方向。