【24h】

BERT of all trades, master of some

机译:所有行业的BERT,某些行业的大师

获取原文

摘要

This paper describes our results for TRAC 2020 competition held together with the conference LREC 2020. Our team name was Ms8qQxMbnjJMgYcw. The competition consisted of 2 subtasks in 3 languages (Bengali, English and Hindi) where the participants' task was to classify aggression in short texts from social media and decide whether it is gendered or not. We used a single BERT-based system with two outputs for all tasks simultaneously. Our model placed first in English and second in Bengali gendered text classification competition tasks with 0.87 and 0.93 in Fl-score respectively.
机译:本文介绍了与REC 2020会议一起举行的TRAC 2020竞赛的结果。我们的团队名称为Ms8qQxMbnjJMgYcw。比赛由3种语言(孟加拉语,英语和北印度语)的2个子任务组成,参与者的任务是将侵略性分类为来自社交媒体的简短文字,并确定其性别。我们使用了一个基于BERT的系统,其中有两个输出同时用于所有任务。我们的模型以英语排名第一,在孟加拉语性别文本分类竞赛任务中排名第二,在Fl评分中分别为0.87和0.93。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号