机译:基于FPGA的深度神经网络推理的吞吐量优化
Hamburg Univ Technol TUHH, Inst Embedded Syst, D-21073 Hamburg, Germany;
Univ Twente, Comp Architectures Embedded Syst, NL-7500 AE Enschede, Netherlands;
Deep neural networks; Batch processing; Pruning; Compression; FPGA; Inference; Throughput optimizations; Fully-connected;
机译:用于深度卷积神经网络的吞吐量优化的FPGA加速器
机译:使用神经网络加速器优化移动设备上的深度学习推理
机译:基于FPGA的神经网络软件为原始推理速度提供GPU竞争
机译:修剪深度神经网络的基于FPGA的灵活推理架构
机译:通过具有流功能的高级综合,以有限的数值精度实现基于FPGA的神经网络推理加速的框架。
机译:测量具有变分推理的深神经网络预测的不确定性
机译:基于FPGA的深神经网络推断的吞吐量优化