首页> 外文会议>International Symposium on Quality Electronic Design >Compressing CNNs by Exponent Sharing in Weights using IEEE Single Precision Format
【24h】

Compressing CNNs by Exponent Sharing in Weights using IEEE Single Precision Format

机译:使用IEEE单精度格式通过指数共享压缩CNN

获取原文

摘要

The performance of convolutional neural networks for computer vision and other applications has crossed human accuracy levels on high-end systems. The demand for these applications in small, mobile hardware is increasing while expecting the same performance. These devices have considerably smaller memory and power budgets. Prior work on model compression for inference on edge devices has sacrificed some accuracy to compress the models. We propose a novel model compression approach by sharing exponents of weights stored in IEEE floating-point format. This approach does not require any fine-tuning after compression. We demonstrate our technique on different trained models resulting in nearly 10% compression in storage and requiring less than 1.5 times the original execution time.
机译:用于计算机视觉和其他应用的卷积神经网络的性能在高端系统上跨越人类精度水平。 对这些应用的需求在小型移动硬件中的需求正在增加,同时期待相同的性能。 这些设备具有相当较小的内存和功率预算。 在边缘设备上推断推断的模型压缩前的工作已经牺牲了一些准确性来压缩模型。 我们通过分享存储在IEEE浮点格式中的权重的指数来提出一种新颖的模型压缩方法。 这种方法在压缩后不需要任何微调。 我们展示了我们在不同训练模型上的技术,导致存储近10%的压缩,并且需要原始执行时间的1.5倍。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号