首页> 外文期刊>電子情報通信学会技術研究報告. 音声. Speech >Constructing a Japanese Multimodal Corpus From Emotional Monologues and Dialogues
【24h】

Constructing a Japanese Multimodal Corpus From Emotional Monologues and Dialogues

机译:从情感独白和对话构建日本多模式语料库

获取原文
获取原文并翻译 | 示例
       

摘要

To fully incorporate emotion into human-computer interaction, rich sets of labeled emotional data is prerequisite. However, in Japanese, the majority of the existing emotion database is still limited to unimodal and bimodal corpora. To allow more complete observation of emotion occurrences, we construct the first audio-visual emotion corpora in Japanese, collected from 14 native speakers. Preliminary speech emotion recognition experiments on the corpus and achieved an accuracy of 61.42% for five classes of emotion.
机译:为了将情感完全融入人机交互中,必须具备丰富的带有标签的情感数据集。但是,在日语中,大多数现有的情绪数据库仍仅限于单峰和双峰语料库。为了更完整地观察情绪发生,我们构造了日语中的第一个视听情绪语料库,该语料库是从14个以英语为母语的人那里收集的。在语料库上进行了初步的语音情感识别实验,对五类情感的准确率达到了61.42%。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号