首页> 外文会议>Conference on Neural Information Processing Systems >Hyperparameter Learning via Distributional Transfer
【24h】

Hyperparameter Learning via Distributional Transfer

机译:通过分配转移来学习封锁

获取原文

摘要

Bayesian optimisation is a popular technique for hyperparameter learning but typically requires initial exploration even in cases where similar prior tasks have been solved. We propose to transfer information across tasks using learnt representations of training datasets used in those tasks. This results in a joint Gaussian process model on hyperparameters and data representations. Representations make use of the framework of distribution embeddings into reproducing kernel Hilbert spaces. The developed method has a faster convergence compared to existing baselines, in some cases requiring only a few evaluations of the target objective.
机译:贝叶斯优化是一种流行的超参数学习技术,但通常需要初始探索,即使在解决类似的先前任务的情况下也是如此。 我们建议使用在这些任务中使用的培训数据集的学习表现来转移跨任务的信息。 这导致了在超参数和数据表示上的联合高斯过程模型。 表示利用分布嵌入式嵌入式嵌入式内核希尔伯特空间。 与现有区域相比,开发方法具有更快的收敛,在某些情况下,只需要少数对目标目标的评估。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号