首页> 外文期刊>電子情報通信学会技術研究報告 >一般損失最小化に基づくカーネル識別器の学習
【24h】

一般損失最小化に基づくカーネル識別器の学習

机译:基于广义损失最小化的学习核分类器

获取原文
获取原文并翻译 | 示例
       

摘要

We evaluate stochastic complexity of Gaussian mixture by Bayes code length, and apply it to the model selection problem. The Gaussian mixture is a popular model in machine learning and statistics. Since it is generally difficult to calculate Bayes code length of Gaussian mixture, we propose an accurate approximation method to calculate it in practical time, which uses Laplace approximation and Monte Carlo method. We compare the performance of our method with other methods.%本稿では、カーネル識別器の新しい学習手法を提案する。まず、任意の損失や事前確率を扱えるように、ベイズ決定理論に基づいた一般損失最小化(GLM)と呼ぶ新しい学習基準を提案し、本学習基準をカーネル識別器の設計に適用することで新しいカーネル識別器の学習手法を導出する。次に、ソフトマージンSVMもまたGLMの枠組みによって導出できることを示し、提案手法との共通点と相違点を明らかにする。人工データ及びUCI Machine Learning Repository の実データを用いた実験によって、提案手法がSVMよりも少ないモデル自由度で同等以上の識別精度を実現することを確認する。
机译:我们通过贝叶斯代码长度评估高斯混合的随机复杂度,并将其应用于模型选择问题。高斯混合是机器学习和统计中的一种流行模型,由于通常难以计算高斯混合的贝叶斯代码长度,因此我们提出我们将我们的方法与其他方法的性能进行了比较。%本文提出了一种针对内核分类器的新学习方法。首先,我们基于贝叶斯决策理论提出了一种新的学习准则,称为广义损失最小化(GLM),以便我们可以处理任意损失和先验概率,并将该学习准则应用于内核分类器的设计。推导用于内核分类器的学习方法。接下来,我们表明,软裕量支持向量机也可以通过GLM框架导出,并阐明了与所提出方法的异同。通过使用UCI机器学习存储库的人工数据和真实数据进行的实验,证实了所提出的方法与SVM相比具有相同或更高的分类精度,并且模型自由度较小。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号