首页> 外文会议>International Workshop on Semantic Evaluation >BERTatDE at SemEval-2020 Task 6: Extracting term-definition pairs in free text using pre-trained model
【24h】

BERTatDE at SemEval-2020 Task 6: Extracting term-definition pairs in free text using pre-trained model

机译:Bertatde在Semeval-2020任务6:使用预先训练的模型提取任期定义对中的定义对

获取原文

摘要

Definition extraction is an important task in Nature Language Processing, and it is used to identify the terms and definitions related to terms. The task contains sentence classification task (i.e., classify whether it contains definition) and sequence labeling task (i.e., find the boundary of terms and definitions). The paper describes our system BERTatDE in sentence classification task (subtask 1) and sequence labeling task (subtask 2) in the definition extraction (SemEval-2020 Task 6). We use BERT to solve the multi-domain problems including the uncertainty of term boundary that is, different areas have different ways to definite the domain related terms. We use BERT, BiLSTM and attention in subtask 1 and our best result achieved 79.71 % in F1 and the eighteenth place in subtask 1. For the subtask 2, we use BERT, BiLSTM and CRF to sequence labeling, and achieve 40.73% in Macro-averaged F1.
机译:定义提取是自然语言处理中的重要任务,它用于识别与术语相关的条款和定义。 任务包含句子分类任务(即,分类它是否包含定义)和序列标记任务(即,找到条款和定义的边界)。 本文介绍了我的系统BERTATDE在句子分类任务(子任务1)和定义提取中的序列标记任务(SubTask 2)中的序列标记任务(Semeval-2020任务6)。 我们使用BERT来解决多域问题,包括术语边界的不确定性,即不同的区域有不同的方式来确定域相关术语。 我们在子任务中使用BERT,BILSTM和注意力1,我们的最佳结果在F1和第18位的次级摊位中实现了79.71%。对于子任务2,我们使用BERT,BILSTM和CRF进行序列标签,宏观达到40.73% 平均f1。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号