首页> 外国专利> Cross Data Set Knowledge Distillation for Training Machine Learning Models

Cross Data Set Knowledge Distillation for Training Machine Learning Models

机译:交叉数据集知识蒸馏用于训练机器学习模型

摘要

A method and system for training a text-to-content recommendation ML model includes training a first ML model using a first training data set, utilizing the trained first ML model to infer information about the data contained in the first training data set, collecting the inferred information to generate a second training data set, and utilizing the first training data set and the second training data set to train a second ML model. The second ML model may be a text-to-content recommendation ML model.
机译:用于训练文本到内容推荐ML模型的方法和系统包括使用第一训练数据集训练第一ML模型,利用训练有素的第一ML模型来推断有关第一训练数据集中包含的数据的信息,收集 推断信息以生成第二训练数据集,并利用第一训练数据集和第二训练数据集以训练第二ML模型。 第二ML模型可以是文本到内容推荐ML模型。

著录项

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号