首页> 中国专利> 一种中文危险化学品命名实体识别方法

一种中文危险化学品命名实体识别方法

摘要

本发明涉及一种中文危险化学品命名实体识别方法,包括步骤:获取危险化学品语料;对获取的危险化学品语料进行数据清洗和预处理,构建危化品数据集;构建BERT‑BiLSTM‑self‑Attention‑CRF神经网络模型;对识别文本进行命名实体识别。本发明的有益效果是:提出了一种基于BERT的中文危险化学品命名实体识别模型,该模型在BiLSTM‑CRF模型的基础上,利用预训练语言模型BERT获取危险化学品领域的文本字符级别编码,得到基于上下文信息的字向量,然后引入注意力机制,增强模型挖掘文本的全局和局部特征的能力。在自行构建的危险化学品语料库上的实验结果表面,该模型在各项指标上显著优于其他命名实体识别方法。

著录项

  • 公开/公告号CN113836930A

    专利类型发明专利

  • 公开/公告日2021-12-24

    原文格式PDF

  • 申请/专利权人 浙大城市学院;

    申请/专利号CN202111143088.9

  • 申请日2021-09-28

  • 分类号G06F40/295(20200101);G06F40/30(20200101);G06K9/62(20060101);G06N3/04(20060101);

  • 代理机构33101 杭州九洲专利事务所有限公司;

  • 代理人张羽振

  • 地址 310015 浙江省杭州市拱墅区湖州街51号

  • 入库时间 2023-06-19 13:49:36

说明书

技术领域

本发明属于命名实体识别技术领域,尤其涉及一种中文危险化学品命名实体识别方法。

背景技术

众所周知,化学工业的迅速发展推动了其它工业的进步,但同时其造成的化学事故的规模和频率也在逐年上升。为了从信息化和智能化角度入手,缓解危化品安全生产的监管压力,可以通过建立危化品领域知识图谱来辅助工作人员进行判断推理。而命名实体识别则是构建知识图谱的重要前提。

命名实体识别任务目的是从目标文本中识别出符合预定义语义类型的实体,是自然语言处理的一项基本任务,为下游的任务提供服务。目前,命名实体识别方法主要有四种方式:1)基于规则的方式,该方式不需要标注数据,但是依赖手工制作的规则;2)无监督学习方法,该方法依赖无监督学习,不需要手工的标记数据;3)基于特征的统计机器学习方法,该方法依赖特征选择。常见的命名实体识别模型有马尔可夫模型、支持向量机、条件随机场等;4)基于深度学习的方法,这也是现如今最常用的方法,主流模型是BiLSTM-CRF模型。与基于特征的方法比较,深度学习算法更能自动的发现隐藏特征,并且效果也更好。

但是BiLSTM-CRF模型的缺点在于,词嵌入层的词向量无法对一词多义的词进行很好的表达,从而影响最终结果的准确率。同时,BiLSTM模型在进行全局的特征提取时,会忽略掉词间的部分局部特征,使得语义表达不完整,也会影响最终的结果。同时,目前并没有针对中文危险化学品领域的命名实体识别的相关研究,由于中文危险化学品领域的标签数据匮乏,现有的方法直接应用于中文危险化学品领域效果并不理想,实体的识别精度不高。

中国发明专利(申请号:2019103673769,专利名称:具体涉及一种基于中医古籍文献的中医命名实体识别方法及识别系统),通过利用预训练模型BERT,基于小样本训练集,节省了人工标注的成本,提高了识别效果及准确率,为之后对中医古籍医案的全面利用打下了基础。

发明内容

本发明的目的是克服现有技术中的不足,提供一种中文危险化学品命名实体识别方法。

这种中文危险化学品命名实体识别方法,具体包括以下步骤:

S1、获取危险化学品语料;

S2、对步骤S1获取的危险化学品语料进行数据清洗和预处理,构建危化品数据集;

S3、构建BERT-BiLSTM-self-Attention-CRF神经网络模型;使用步骤S2得到的危化品数据集,对构建好的BERT-BiLSTM-self-Attention-CRF神经网络模型进行训练;

S3.1、输入危化品数据集中的字符,对字符进行向量表示,生成BERT输入编码向量;BERT输入编码向量由字嵌入(WordPiece嵌入)、分段嵌入和位置嵌入的编码字向量融合而成;将BiLSTM层的输入由Word2Vec预训练词向量(BERT以前常用的词向量嵌入技术)替换为BERT预训练语言模型输出的字嵌入向量;

BERT的网络架构是多层Transformer结构,BERT进行自注意力计算的方法为:

上式中:Q、K、V分别为查询顶矩阵、查询项对应的键项矩阵、待加权平均的值项矩阵;dk为查询项矩阵的维度,QKT除以

S3.2、将BERT预训练语言模型输出的字嵌入向量输入到BiLSTM层中,BiLSTM层采用双向的LSTM神经单元,BiLSTM层的LSTM神经单元结构的遗忘门、输入门、输出门的具体公式如下:

f

i

o

上式中:f

细胞状态的更新公式如下:

C

上式中,⊙表示哈达玛积;tanh为双曲正切激活函数;W

隐藏层状态的更新公式如下:

h

上式中,o

S3.3、将步骤S3.2得到的BiLSTM层的输出特征向量输入到自注意力机制层;自注意力机制层的计算方法如下:

MultiHead(Q,K,V)=Concat(head

上式中:W

S3.4、将S3.3得到的自注意力机制层输出的特征向量输入到CRF层,挖掘危化品数据集中标签之间的相互依赖关系,得到危化品数据集中标签序列的得分函数;使得标签间出现的顺利合理,并计算损失函数;将最佳预测标签序列作为中文危险化学品命名实体识别的结果;

S3.5、采用SGD随机下降法,用CRF层计算的危化品数据集中标签序列得分函数的训练损失函数来更新整个BERT-BiLSTM-self-Attention-CRF神经网络模型的参数;直至损失函数达到预设要求,或者迭代轮数达到设定的最大迭代次数,终止BERT-BiLSTM-self-Attention-CRF神经网络模型的训练;

S4、利用步骤S3训练得到的BERT-BiLSTM-self-Attention-CRF神经网络模型对识别文本进行命名实体识别,得到识别结果。

作为优选,步骤S1具体为:由于危险化学品领域文本样式多种多样且格式不同,在专家建议下,本发明决定以《危险化学品目录(2015版)》中记录的2828种危险化学品为对象,爬取2828种危险化学品对应的MSDS文件(化学品安全技术说明书,Material SafetyData Sheets)作为危险化学品语料。

作为优选,步骤S2具体包括以下步骤:

S2.1、对于获取的危险化学品语料(MSDS文件),首先滤掉无用的信息,以句子为单位分隔语料,生成危化品数据集;

S2.2、根据实际需求确定识别的实体类别;

S2.3、为了解决命名实体间长度不一、难以区分实体边界的情况,采用BIOES格式来进行实体标注:B表示实体的第一个字符、I表示实体的中间字符、E表示实体的最后一个字符、S表示单独一个字符作为一个实体、0表示非实体;

S2.4、针对危化品数据集中标签分布不均匀的问题,采用数据增强方式,人为增加危化品数据集中数据量小于设定值的标签的出现次数。

作为优选,步骤S2.1中无用的信息包括图片和重复信息。

作为优选,步骤S2.4中标签为数据集中危险化学品语料的属性。

作为优选,步骤S3.4具体包括以下步骤:

S3.4.1、在线性链条件随机场中,危化品数据集中标签序列的得分函数为:

上式中,X为输入序列,x表示输入序列的随机取值,y表示对应于x的输出值,i表示x对应的位置,score(X,y)表示给定X的条件下Y=y的概率;t

危化品数据集中标签序列得分函数的训练损失函数为:

上式中,λ表示惩罚项系数,θ表示惩罚项;

S3.4.2、对于给定的输入序列X,得到所有预测的输出标签序列的分数,进行归一化操作后的公式为:

上式中,

S3.4.3、利用维特比(Viterbi)算法得到最佳预测标签序列:

y

作为优选,步骤S3.5中BERT-BiLSTM-self-Attention-CRF神经网络模型的参数包括BiLSTM层、自注意力机制层、CRF层的模型参数。

作为优选,步骤S2.2确定识别的实体类别包括主体、条件、风险、产物(或结果)。

作为优选,步骤S2.4中采用的数据增强方式包括同义词替换和实体替换。

本发明的有益效果是:

本发明提出了一种基于BERT的中文危险化学品命名实体识别模型(BERT-BiLSTM-self-Attention-CRF),该模型在BiLSTM-CRF模型的基础上,利用预训练语言模型BERT获取危险化学品领域的文本字符级别编码,得到基于上下文信息的字向量,然后引入注意力机制,增强模型挖掘文本的全局和局部特征的能力。在自行构建的危险化学品语料库上的实验结果表面,该模型在各项指标上显著优于其他命名实体识别方法。

BERT-BiLSTM-self-Attention-CRF模型,能够更好的获取到句子间的语义关系,能够更好的利用上下文信息,从而提高序列标注任务的准确度,对构建危险化学品领域知识图谱有着很强的促进作用。

附图说明

图1为本发明提出的BERT-BiLSTM-self-Attention-CRF神经网络模型的命名实体识别方法的流程示意图;

图2为本发明提出的BERT-BiLSTM-self-Attention-CRF神经网络模型的结构图;

图3为BERT模型输入词向量图;

图4为LSTM单元结构图。

具体实施方式

下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

实施例一

本申请实施例一提供了一种如图1所示中文危险化学品命名实体识别方法:

S1、获取危险化学品语料;

S2、对步骤S1获取的危险化学品语料进行数据清洗和预处理,构建危化品数据集;

S3、构建BERT-BiLSTM-self-Attention-CRF神经网络模型;使用步骤S2得到的危化品数据集,对构建好的BERT-BiLSTM-self-Attention-CRF神经网络模型进行训练;

S3.1、输入危化品数据集中的字符,对字符进行向量表示,生成BERT输入编码向量;BERT输入编码向量由字嵌入、分段嵌入和位置嵌入的编码字向量融合而成;将BiLSTM层的输入替换为BERT预训练语言模型输出的字嵌入向量;

BERT的网络架构是多层Transformer结构,BERT进行自注意力计算的方法为:

上式中:Q、K、V分别为查询项矩阵、查询项对应的键项矩阵、待加权平均的值项矩阵;d

S3.2、将BERT预训练语言模型输出的字嵌入向量输入到BiLSTM层中,BiLSTM层采用双向的LSTM神经单元,BiLSTM层的LSTM神经单元结构的遗忘门、输入门、输出门的具体公式如下:

f

i

o

上式中:f

细胞状态的更新公式如下:

C

上式中,⊙表示哈达玛积;tanh为双曲正切激活函数;W

隐藏层状态的更新公式如下:

h

上式中,o

S3.3、将步骤S3.2得到的BiLSTM层的输出特征向量输入到自注意力机制层;自注意力机制层的计算方法如下:

MultiHead(Q,K,V)=Concat(head

上式中:W

S3.4、将S3.3得到的自注意力机制层输出的特征向量输入到CRF层,挖掘危化品数据集中标签之间的相互依赖关系,得到危化品数据集中标签序列的得分函数;并计算损失函数;将最佳预测标签序列作为中文危险化学品命名实体识别的结果;

S3.5、采用SGD随机下降法,用CRF层计算的危化品数据集中标签序列得分函数的训练损失函数来更新整个BERT-BiLSTM-self-Attention-CRF神经网络模型的参数;直至损失函数达到预设要求,或者迭代轮数达到设定的最大迭代次数,终止BERT-BiLSTM-self-Attention-CRF神经网络模型的训练;

S4、利用步骤S3训练得到的BERT-BiLSTM-self-Attention-CRF神经网络模型对识别文本进行命名实体识别,得到识别结果。

实施例二

在实施例一的基础上,本申请实施例二提供了实施例一中中文危险化学品命名实体识别方法在具体实例中的应用:

S1、获取中文危险化学品语料;

进一步的,获取危险化学品语料,具体包括以下步骤:

S1-1、由于危险化学品领域文本样式多种多样且格式不同,在专家建议下,本实施例决定以《危险化学品目录(2015版)》中记录的2828种危险化学品为对象进行信息爬取;

S1-2、针对步骤S1-1中选定的2828中危险化学品,爬取这些危险化学品对应的化学品安全技术说明书(Material Safety Data Sheets,MSDS);

S2、对步骤S1获取的危险化学品语料进行数据清洗和预处理,构建数据集,类别描述见下表1;

表1本实施例建立的危险化学品领域数据集实体类别表

进一步的,步骤S2对获取的危险化学品语料进行数据清洗和预处理,构建数据集,具体包括步骤:

S2-1、对于获取的MSDS文件,首先滤掉图片、重复信息等无用的信息,以句子为单位分隔语料,生成数据集;

由于MSDS文件是结构性的文件,所以很多危险化学品的属性有的相同的描述,比如丝裂霉素C和三甲基氯化铵的燃爆危险都有“遇明火、高热可燃”和“受高热分解放出有毒的气体”;同时MSDS文件会使用分子式图来描述危险化学品结构,也会收录很多在本任务中不会使用的到属性,所以需要进行过滤筛选。

S2-2、根据实际需求确定需要识别的实体类别,本实施例确定的实体分四大类,分别是主体、条件、风险、产物或结果;

S2-3、为了解决命名实体间长度不一、难以区分实体边界的情况,采用BIOES格式来实现实体标注:B表示实体的第一个字符、I表示实体的中间字符、E表示实体的最后一个字符、S表示单独一个字符是一个实体、O表示非实体。比如“是一种易燃易爆气体”,人工标注的实体标注为“O O O B-RISK E-RISK B-RISK E-RISK O O”;

S2-4、针对数据集中标签分布不均匀,采用数据增强方式,比如同义词替换,实体替换等,人为的增加数据量少的标签的出现次数;

比如形成的数据集中,主体和产物或结果标签数量少于条件和风险标签数量,所以可以对相似的主体间进行实体替换,这样既可以充实数据集,也可以增加主体的标签数量;对于产物或结果标签采用同义词替换,比如将“有毒气体”替换成“有害气体”。

S3、使用步骤S2得到的危化品数据集,对于构建好的BERT-BiLSTM-self-Attention-CRF模型进行训练,模型结构图如图2所示;

进一步的,步骤S3构建BERT-BiLSTM-self-Attention-CRF神经网络模型,具体包括步骤:

S3-1、将BiLSTM的输入由Word2Vec预训练词向量替换成BERT预训练词向量,由BERT输出字嵌入向量;

进一步的,步骤S3-1中,如图3所示,BERT的输入编码向量是三个嵌入特征向量的单位和,分别是1)WordPiece嵌入,WordPiece是将单词拆分成一组公共的子词单元,是单词灵活性和准确性的一个折中方案,中文无法拆分,所以中文BERT预训练模型此处是字嵌入;

2)位置嵌入,指将单词的位置信息编码成特征向量,表示该单词在句子中的位置,在中文BERT预训练模型中此处是字向量的位置嵌入;3)分段嵌入,用于区分两个句子,判断B是否是A的下文。除此之外,输入中还包含两个特殊符号“[CLS]”和“[SEP]”,其中“[CLS]”表示该特征用于分类模型,“[SEP]”表示分句符号,用于断开输入语料的两个句子;

本实施例选择是BERT预训练模型是由HuggingFace提供的bert-chinese-base版本,BERT部分代码参考Google官方给出的代码范例;

BERT的网络架构使用的是多层Transformer结构,进行自注意力计算方法如下:

式中:Q,K,V分别为Query、Key、Value向量组合的矩阵;dk为输入向量即Query向量的维度,除以

S3-2、将BERT预训练语言模型输出的字向量输入到BiLSTM神经网络模型中;

进一步的,步骤S3-2中,将BERT预训练语言模型输出字向量输入到BiLSTM层中(BiLSTM层采用双向的LSTM神经单元,同时学习文本的上文和下文信息,并对输出向量进行拼接,从而使字输出向量能够同时兼备上下文信息,克服了单LSTM语义信息不完整的缺点,使得实验结果更加准确;例如:对于一个序列{1,2,3,4},一个LSTM从前往后1->2->3->4的寻找特征,一个LSTM从后往前4->3->2->1的寻找特征,然后再把寻找到的特征信息进行融合),BiLSTM层的神经单元的计算方法如下:

LSTM单元结构如图4所示,遗忘门、输入门、输出门的具体公式如下:

f

i

o

式中:f

细胞状态的更新公式如下:

式中:⊙表示哈达玛积;tanh为双曲正切激活函数;W

C

隐藏层状态的更新公式如下:

h

本实施例采用BiLSTM模型,利用双向的LSTM,同时学习文本的上文和下文信息,并对输出向量进行拼接,从而使字输出向量能够同时兼备上下文信息,克服了单LSTM语义信息不完整的缺点,使得实验结果更加准确。

S3-3、将步骤S3-2得到的特征向量输入到自注意力机制层,对提取到的特征进行权重分配,强化字符之间相互关联大的特征,弱化无关特征,让字向量更注重起关键作用的特征;

进一步的,步骤S3-3中,采用多头自注意力机制,计算方法如下:

MultiHead(Q,K,V)=Concat(head

式中:W

S3-4、将S3-3得到的特征向量输入到CRF层,挖掘标签之间的相互依赖关系,使得标签间出现的顺利合理,并计算损失函数;

进一步的,步骤S3-4中,将通过自注意力机制层加强语义后的字向量输入到CRF层中,挖掘标签之间的相互依赖关系,使得标签间出现的顺利合理,并计算损失函数,具体包括:

在线性链条件随机场中,标签序列的得分函数可表示为:

式中:X表示输入序列,x表示输入序列的随机取值,y表示对应于x的输出值,i表示x对应的位置,t

对于给定的输入序列X,得到所有可能的标签序列的分数,归一化公式为:

式中:

最后,利用维特比(Viterbi)算法得到最佳预测标签序列:

y

例如:有y={1,2,3,4},\hat y

训练损失函数为:

式中:λ表示惩罚项系数,θ表示惩罚项。

S3-5、采用SGD随机下降法用CRF层计算的损失函数更新整个模型的参数,包括BiLSTM层、自注意力机制层、CRF层的模型参数,直至模型损失函数达到预设要求或者迭代轮数达到最大迭代次数,终止模型训练。

S4、利用步骤S3得到训练好的BERT-BiLSTM-self-Attention-CRF的神经网络模型对识别文本进行命名实体识别,得到识别结果。如下表2所示,在多种命名实体识别的模型中,BERT-BiLSTM-self-Attention-CRF在精确率、召回率和F

表2在危险化学品数据集上不同模型的命名实体识别结果对比表

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号