首页> 外文期刊>電子情報通信学会技術研究報告 >マルチカーネル学習を用いた話者認識における最適化の検討
【24h】

マルチカーネル学習を用いた話者認識における最適化の検討

机译:基于多核学习的说话人识别优化研究

获取原文
获取原文并翻译 | 示例
       

摘要

本稿では,マルチカーネル学習を話者認識システムに適用した場合における,最適化アルゴリズムと認識性能の関係について調査を行った.話者認識システムにカーネル法を適用する場合,与えられたデータに対して適切なカーネル関数やパラメータを決定する必要がある.マルチカーネル学習は,複数のカーネル関数を凸結合することで,カーネル関数やパラメータを厳密に決定する必要性を減じることができる.本稿では,このマルチカーネル学習で用いる最適化基準および最適化アルゴリズムに焦点を当て,条件付きエントロピー最小化に基づくアルゴリズムと従来多く用いられているマージン最大化に基づくアルゴリズムを話者認識において比較した.その結果,条件付きエントロピー最小化に基づくシステムは,マージン最大化に基づくシステムの誤りを削減することがわかった.%We investigated the relation between the optimization algorithm for multiple kernel learning (MKL) and the speaker recognition performance. Most of the kernel methods applied to speaker recognition systems require a suitable kernel function and its parameters to be determined for a given data set. In contrast, MKL eliminates the need for strict determination of the kernel function and parameters by using a convex combination of element kernels. In the present paper, we focused on the optimization criterion and algorithm applied to MKL. We compared an MKL algorithm based on conditional entoropy minimization (MCEM) with a conventional maximum-margin-based MKL algorithm in terms of speaker recognition accuracy; the MCEM-based system reduced the speaker error rate as compared to the maximum-margin-based system.
机译:在本文中,我们研究了将多核学习应用于说话人识别系统时,优化算法与识别性能之间的关系。将核方法应用于说话人识别系统时,有必要确定给定数据的适当核函数和参数。多内核学习可以通过凸连接多个内核函数来减少严格确定内核函数和参数的需求。在本文中,我们重点研究了用于多核学习的优化准则和优化算法,并将基于条件熵最小化的算法与基于边缘最大化的传统算法在说话人识别中进行了比较。结果,发现基于条件熵最小化的系统减小了基于裕度最大化的系统的误差。我们研究了多核学习优化算法(MKL)与说话人识别性能之间的关系。应用于说话人识别系统的大多数核方法都需要合适的核函数及其参数才能确定给定的数据集。本文将重点放在应用于MKL的优化准则和算法上,比较了基于条件包体的MKL算法。使用传统的基于最大边距的MKL算法在说话人识别准确性方面实现最小化(MCEM);与基于最大边距的系统相比,基于MCEM的系统降低了说话人错误率。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号