首页> 外文OA文献 >On Distributed Deep Network for Processing Large-Scale Sets of Complex Data
【2h】

On Distributed Deep Network for Processing Large-Scale Sets of Complex Data

机译:分布式深度网络处理大规模复杂数据集

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Recent work in unsupervised feature learning and deep learning has shown that being able to train large models can dramatically improve performance. In this paper, we consider the problem of training a deep network with hundreds of parameters using distributed CPU cores. We have developed Bagging-Down SGD algorithm to solve the distributing problems. Bagging-Down SGD introduces the parameter server adding on the several model replicas, and separates the updating and the training computing to accelerate the whole system. We have successfully used our system to train a distributed deep network, and achieve state-of-the-art performance on MINIST, a visual handwriting font library. We show that these techniques dramatically accelerate the training of this kind of distributed deep network.
机译:无监督特征学习和深度学习的最新工作表明,能够训练大型模型可以显着提高性能。在本文中,我们考虑使用分布式CPU内核训练具有数百个参数的深度网络的问题。我们已经开发了Bagging-Down SGD算法来解决分配问题。 Bagging-Down SGD引入了在几个模型副本上添加的参数服务器,并将更新和训练计算分离开来以加速整个系统。我们已经成功地使用我们的系统来训练分布式深层网络,并在MINIST(一种视觉手写字体库)上实现了最先进的性能。我们表明,这些技术极大地加速了这种分布式深度网络的训练。

著录项

  • 作者

    Chen D;

  • 作者单位
  • 年度 2016
  • 总页数
  • 原文格式 PDF
  • 正文语种 en
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号