首页> 外国专利> SPECULATIVE TRAINING USING PARTIAL GRADIENT UPDATE

SPECULATIVE TRAINING USING PARTIAL GRADIENT UPDATE

机译:使用部分渐变更新的推测性培训

摘要

The exchange of weighting gradients between the processing nodes can lead to a considerable bottleneck in the training process. Instead of staying inactive during the weight gradient exchange process, a processing node can update its own set of weights for the next iteration of the training process using the processing node's local weight gradients. The next iteration of training can be started using these speculative weights until the weight gradient exchange process is complete and a global weight update is available. If the speculative weights are close enough to the weight values from the global weight update, the training process at the processing node can continue training using the results calculated from the speculative weights to reduce the overall training time.
机译:处理节点之间的加权梯度交换可以导致训练过程中的相当大的瓶颈。 在权重梯度交换过程中而不是保持非活动,处理节点可以使用处理节点的本地权重梯度更新其自己的重量,以便进行训练过程的下次迭代。 可以使用这些推测权重启动训练的下一次迭代,直到重量梯度交换过程完成并且全局重量更新可用。 如果推测权重与来自全局权重更新的权重值足够接近,则处理节点处的训练过程可以继续使用从投机权重计算的结果来训练,以减少整体训练时间。

著录项

  • 公开/公告号DE102021107586A1

    专利类型

  • 公开/公告日2021-09-30

    原文格式PDF

  • 申请/专利权人 AMAZON TECHNOLOGIES INC.;

    申请/专利号DE202110107586

  • 发明设计人 PATRICIO KAPLAN;RANDY RENFU HUANG;

    申请日2021-03-25

  • 分类号G06N3/08;

  • 国家 DE

  • 入库时间 2022-08-24 21:23:05

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号