首页> 外文会议>International Conference on Machine Learning >Near-Tight Margin-Based Generalization Bounds for Support Vector Machines
【24h】

Near-Tight Margin-Based Generalization Bounds for Support Vector Machines

机译:基于近紧的基于边缘的概述支持向量机

获取原文

摘要

Support Vector Machines (SVMs) are among the most fundamental tools for binary classification. In its simplest formulation, an SVM produces a hyperplane separating two classes of data using the largest possible margin to the data. The focus on maximizing the margin has been well motivated through numerous generalization bounds. In this paper, we revisit and improve the classic generalization bounds in terms of margins. Furthermore, we complement our new generalization bound by a nearly matching lower bound, thus almost settling the generalization performance of SVMs in terms of margins.
机译:支持向量机(SVM)是二进制分类最基本的工具。 在其最简单的配方中,SVM使用最大可能的数据生成超平面分离两类数据。 通过许多泛化界限最大化边缘的重点是充分发挥的。 在本文中,我们重新审视并改善了利润率方面的经典泛化范围。 此外,我们通过几乎匹配的下限补充了我们的新泛化,从而在边缘方面几乎稳定了SVM的泛化性能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号