首页> 外文会议>IEEE International Conference on Consumer Electronics-Asia >An efficient pruning and weight sharing method for neural network
【24h】

An efficient pruning and weight sharing method for neural network

机译:一种有效的神经网络修剪与权重共享方法

获取原文

摘要

This paper presents a compression method to reduce the number of parameters in convolutional neural networks (CNNs). Although neural networks have an excellent recognition performance in computer vision application, there is a need for a large memory for storing amount of parameters and also necessary in a high-speed computational block. Therefore we propose two the compression schemes (pruning, weight sharing) in LeNet network model using MNIST dataset. The proposed schemes reduced the number of parameters of LeNet from 430,500 to 32 excluding index buffer size.
机译:本文提出了一种减少卷积神经网络(CNN)中参数数量的压缩方法。尽管神经网络在计算机视觉应用中具有出色的识别性能,但是需要用于存储参数量的大存储器,并且在高速计算块中也是必需的。因此,我们使用MNIST数据集在LeNet网络模型中提出了两种压缩方案(修剪,权重共享)。所提出的方案将LeNet的参数数量从430,500减少到32(不包括索引缓冲区大小)。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号