首页> 外文期刊>Pattern recognition letters >Learning general Gaussian kernel hyperparameters of SVMs using optimization on symmetric positive-definite matrices manifold
【24h】

Learning general Gaussian kernel hyperparameters of SVMs using optimization on symmetric positive-definite matrices manifold

机译:使用对称正定矩阵流形上的优化学习SVM的一般高斯核超参数

获取原文
获取原文并翻译 | 示例

摘要

We propose a new method for general Gaussian kernel hyperparameter optimization for support vector machines classification. The hyperparameters are constrained to lie on a differentiable manifold. The proposed optimization technique is based on a gradient-like descent algorithm adapted to the geometrical structure of the manifold of symmetric positive-definite matrices. We compare the performance of our approach with the classical support vector machine for classification and with other methods of the state of the art on toy data and on real world data sets.
机译:我们为支持向量机分类提出了一种新的通用高斯核超参数优化方法。超参数被约束为位于可微流形上。所提出的优化技术基于适合于对称正定矩阵的流形的几何结构的类似梯度的下降算法。我们将我们的方法与经典支持向量机进行分类的性能以及玩具数据和现实世界数据集上其他现有技术的方法进行比较。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号