首页> 外文会议>IEEE Hot Chips 28 Symposium >From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration
【24h】

From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration

机译:从模型到FPGA:软件 - 硬件共同设计,高效神经网络加速

获取原文

摘要

1.DeePhi: Making deployment of deep learning algorithms simple and efficient - Automatic compilation tool 2.Deep compression 3.Activation quantization 4.Compiler - Aristotle: Architecture for CNN acceleration - Descartes: Architecture for sparse LSTM acceleration.
机译:1.Deephi:进行深度学习算法的部署简单有效 - 自动编译工具2.Deep压缩3.Activation量化4.comPiler - aristotle:CNN Acceleration的架构 - Descartes:稀疏LSTM加速的架构。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号