卡片
列表
-
-
我院王浩课题组与合作者在深度神经网络模型压缩算法研究中取得重要进展, 提出了一种基于非凸稀疏优化的神经网络模型压缩算法。相关成果以“A Proximal Iteratively Reweighted Approach for Efficient Network Sparsification”为题在计算机科学领域的经典顶级学术期刊IEEE Transactions on Computers上在线发表。深度神经网络 (DNN) 作为现代人工智能领域中最受关注的领域, 已经成为语音识别、计算机视觉、自动驾驶等诸多人工智能任务中最有前途的方法之一。 同时, 随着边缘计算和物联网技术的发展, 边缘人工智能将DNN模型的训练和推理过程直接部署在网络边缘。但是, 先进的DNN通常有着数量巨大的连接权重和神经元, 这对内存以及计算能力有限的边缘设备部署DNN来进行模型推理提出了巨大的挑战。 为了克服上述挑战, 网络稀疏化被视为非常有效的模型压缩方法。从算法角度讲, 这类网络稀疏化方法能高效地去除冗余的权重连接, 从而降低内存访问以及计算操作数, 且几乎不影响网络的性能。研究团队首先提出了一种基于对数求
2021-02-08
-
-
-
-
-
-
-
-
我院王浩课题组与合作者在深度神经网络模型压缩算法研究中取得重要进展, 提出了一种基于非凸稀疏优化的神经网络模型压缩算法。相关成果以“A Proximal Iteratively Reweighted Approach for Efficient Network Sparsification”为题在计算机科学领域的经典顶级学术期刊IEEE Transactions on Computers上在线发表。深度神经网络 (DNN) 作为现代人工智能领域中最受关注的领域, 已经成为语音识别、计算机视觉、自动驾驶等诸多人工智能任务中最有前途的方法之一。 同时, 随着边缘计算和物联网技术的发展, 边缘人工智能将DNN模型的训练和推理过程直接部署在网络边缘。但是, 先进的DNN通常有着数量巨大的连接权重和神经元, 这对内存以及计算能力有限的边缘设备部署DNN来进行模型推理提出了巨大的挑战。 为了克服上述挑战, 网络稀疏化被视为非常有效的模型压缩方法。从算法角度讲, 这类网络稀疏化方法能高效地去除冗余的权重连接, 从而降低内存访问以及计算操作数, 且几乎不影响网络的性能。研究团队首先提出了一种基于对数求
2021-02-08
-
-
-
-
-
-