首页> 外国专利> Parallel training of a Support Vector Machine (SVM) with distributed block minimization

Parallel training of a Support Vector Machine (SVM) with distributed block minimization

机译:支持向量机(SVM)的并行训练与分布式块最小化

摘要

A method to solve large scale linear SVM that is efficient in terms of computation, data storage and communication requirements. The approach works efficiently over very large datasets, and it does not require any master node to keep any examples in its memory. The algorithm assumes that the dataset is partitioned over several nodes on a cluster, and it performs “distributed block minimization” to achieve the desired results. Using the described approach, the communication complexity of the algorithm is independent of the number of training examples.
机译:一种解决大规模线性SVM的方法,在计算,数据存储和通信要求方面非常有效。该方法可在非常大的数据集上有效地工作,并且不需要任何主节点在其内存中保留任何示例。该算法假定数据集已在群集上的多个节点上划分,并且执行“分布式块最小化”以实现所需的结果。使用所描述的方法,算法的通信复杂度与训练示例的数量无关。

著录项

  • 公开/公告号US2013144817A1

    专利类型

  • 公开/公告日2013-06-06

    原文格式PDF

  • 申请/专利权人 AKAMAI TECHNOLOGIES INC.;

    申请/专利号US201213707305

  • 发明设计人 ROSIE JONES;DMITRY PECHYONY;LIBIN SHEN;

    申请日2012-12-06

  • 分类号G06F15/18;

  • 国家 US

  • 入库时间 2022-08-21 16:46:59

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号