首页> 外国专利> SELF-SUPERVISED REPRESENTATION LEARNING USING BOOTSTRAPPED LATENT REPRESENTATIONS

SELF-SUPERVISED REPRESENTATION LEARNING USING BOOTSTRAPPED LATENT REPRESENTATIONS

机译:使用引导潜在表示自我监督的表示学习

摘要

A computer-implemented method of training a neural network. The method comprises processing a first transformed view of a training data item, e.g. an image, with a target neural network to generate a target output, processing a second transformed view of the training data item, e.g. image, with an online neural network to generate a prediction of the target output, updating parameters of the online neural network to minimize an error between the prediction of the target output and the target output, and updating parameters of the target neural network based on the parameters of the online neural network. The method can effectively train an encoder neural network without using labelled training data items, and without using a contrastive loss, i.e. without needing “negative examples” which comprise transformed views of different data items.
机译:一种训练神经网络的计算机实现的方法。 该方法包括处理训练数据项的第一变换视图,例如, 具有目标神经网络的图像生成目标输出,处理训练数据项的第二变换视图,例如, 图像,具有在线神经网络生成目标输出的预测,更新在线神经网络的参数,以最小化目标输出预测与目标输出之间的误差,以及基于的目标神经网络的更新参数 在线神经网络的参数。 该方法可以有效地培训编码器神经网络,而不使用标记的训练数据项,而不使用对比丢失,即不需要包含不同数据项的转换视图的“否定示例”。

著录项

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号