首页> 美国卫生研究院文献>Sensors (Basel Switzerland) >Robust Multimodal Emotion Recognition from Conversation with Transformer-Based Crossmodality Fusion
【2h】

Robust Multimodal Emotion Recognition from Conversation with Transformer-Based Crossmodality Fusion

机译:从谈话与基于变压器的横向融合的鲁棒多模态情绪识别

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Decades of scientific research have been conducted on developing and evaluating methods for automated emotion recognition. With exponentially growing technology, there is a wide range of emerging applications that require emotional state recognition of the user. This paper investigates a robust approach for multimodal emotion recognition during a conversation. Three separate models for audio, video and text modalities are structured and fine-tuned on the MELD. In this paper, a transformer-based crossmodality fusion with the EmbraceNet architecture is employed to estimate the emotion. The proposed multimodal network architecture can achieve up to 65% accuracy, which significantly surpasses any of the unimodal models. We provide multiple evaluation techniques applied to our work to show that our model is robust and can even outperform the state-of-the-art models on the MELD.
机译:已经开发和评估了自动情绪识别的方法,进行了数十年的科学研究。通过指数越来越多的技术,存在各种新兴应用程序,需要对用户的情绪状态识别。本文调查了对话期间多式联运情绪识别的稳健方法。用于音频,视频和文本模式的三种独立型号在融合中结构和微调。在本文中,采用了一种基于变压器的横向融合来估计情绪。所提出的多模式网络架构可以达到高达65%的精度,这显着超越了任何单峰模型。我们提供了应用于我们工作的多种评估技术,以表明我们的模型是强大的,甚至可以在融合中赢得最先进的模型。

著录项

  • 期刊名称 Sensors (Basel Switzerland)
  • 作者单位
  • 年(卷),期 2021(21),14
  • 年度 2021
  • 页码 4913
  • 总页数 17
  • 原文格式 PDF
  • 正文语种
  • 中图分类
  • 关键词

    机译:多模式情绪识别;多模式融合;跨传感器;注意机制;
  • 入库时间 2022-08-21 12:34:32

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号