
-
生物通官微
陪你抓住生命科技
跳动的脉搏
关于神经网络中高度表达性的研究
【字体: 大 中 小 】 时间:2026年02月28日 来源:IEEE Transactions on Artificial Intelligence CS6.4
编辑推荐:
三维神经网络架构优化研究。通过引入同层神经元连接(高度维度),构建三维网络(W×K×H),在保持参数量不变的情况下显著提升表达能力和近似性能。理论分析表明三维网络可生成指数级更多分段线性函数,误差指数级降低,实验验证其在合成数据、表格数据及图像基准测试中表现优异,有效缓解深度学习硬件成本压力。
20世纪80年代末,由于计算资源有限,流行的网络架构较为简单。在过去十年中,深度网络(如ResNet和Transformer)在许多领域取得了显著的成功,这强化了“越深越好”的观念。我们将浅层网络和深层网络分别称为一维(1-D)和二维(2-D)网络。然而,深度/大型网络的发展显著增加了训练和部署成本,通常需要价值数百万美元的图形处理单元集群。因此,只有大型机构才能负担得起开发这类模型的费用,这扭曲了人工智能生态系统的平衡。此外,硬件技术的进步正接近物理极限,最先进的GPU即将采用1纳米制程。因此,“越深越好”的趋势在未来可能难以持续。那么,未来的网络架构会是什么样子呢?