首页> 外文OA文献 >FPGA implementations of feed forward neural network by using floating point hardware accelerators
【2h】

FPGA implementations of feed forward neural network by using floating point hardware accelerators

机译:使用浮点硬件加速器的前馈神经网络的FPGA实现

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

This paper documents the research towards the analysis of different solutions to implement a Neural Network architecture on a FPGA design by using floating point accelerators. In particular, two different implementations are investigated: a high level solution to create a neural network on a soft processor design, with different strategies for enhancing the performance of the process; a low level solution, achieved by a cascade of floating point arithmetic elements. Comparisons of the achieved performance in terms of both time consumptions and FPGA resources employed for the architectures are presented.
机译:本文记录了针对分析不同解决方案以使用浮点加速器在FPGA设计上实现神经网络架构的研究。尤其是,研究了两种不同的实现方式:一种在软处理器设计上创建神经网络的高级解决方案,具有提高处理性能的不同策略;通过级联浮点运算元素实现的低级解决方案。提出了在架构所采用的时间消耗和FPGA资源方面实现的性能的比较。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号