首页> 外文会议>IEEE International Conference on Consumer Electronics-Asia >An efficient pruning and weight sharing method for neural network
【24h】

An efficient pruning and weight sharing method for neural network

机译:神经网络有效修剪与重量分享方法

获取原文

摘要

This paper presents a compression method to reduce the number of parameters in convolutional neural networks (CNNs). Although neural networks have an excellent recognition performance in computer vision application, there is a need for a large memory for storing amount of parameters and also necessary in a high-speed computational block. Therefore we propose two the compression schemes (pruning, weight sharing) in LeNet network model using MNIST dataset. The proposed schemes reduced the number of parameters of LeNet from 430,500 to 32 excluding index buffer size.
机译:本文提出了一种压缩方法,以减少卷积神经网络(CNNS)中的参数数量。尽管神经网络在计算机视觉应用中具有出色的识别性能,但是需要大存储器以存储参数量并且在高速计算块中也需要。因此,我们使用MNIST DataSet提出了两个压缩方案(修剪,重量共享)中的压缩方案(修剪,重量共享)。所提出的方案减少了LENET的参数数量从430,500到32,不包括索引缓冲区大小。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号