首页> 外文会议>International Workshop on Semantic Evaluation >Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for Offensive Language Detection
【24h】

Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for Offensive Language Detection

机译:Semeval-2020的Kungfupanda任务12:基于BERT的多任务学习攻击性语言检测

获取原文

摘要

Nowadays, offensive content in social media has become a serious problem, and automatically detecting offensive language is an essential task. In this paper, we build an offensive language detection system, which combines multi-task learning with BERT-based models. Using a pre-trained language model such as BERT, we can effectively learn the representations for noisy text in social media. Besides, to boost the performance of offensive language detection, we leverage the supervision signals from other related tasks. In the OffensEval-2020 competition, our model achieves 91.51 % F1 score in English Sub-task A, which is comparable to the first place (92.23% F1). An empirical analysis is provided to explain the effectiveness of our approaches.
机译:如今,社交媒体的攻击内容已成为一个严重的问题,并自动检测令人反感的语言是必不可少的任务。 在本文中,我们构建了一种令人反感的语言检测系统,将多任务学习与基于BERT的模型相结合。 使用诸如BERT的预先训练的语言模型,我们可以有效地学习社交媒体中嘈杂文本的表示。 此外,为了提高攻击性语言检测的性能,我们利用其他相关任务的监督信号。 在欧洲审议中,我们的模型在英语子任务A中实现了91.51%F1分数,这与第一名(92.23%F1)相当。 提供了实证分析来解释我们方法的有效性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号