首页> 中国专利> 一种基于预训练模型的阅读理解去偏方法

一种基于预训练模型的阅读理解去偏方法

摘要

本发明提供一种基于预训练模型的阅读理解去偏方法,包括:以预训练模型BERT嵌入层为基础构建文本表示层,设定模型输入为文章‑问题构成的句子对,将输入句子映射为句子向量;对位置编码进行两次随机正则化操作,得到两个随机子模型并计算KL散度,评估其输出分布差异性,更新句子向量输入BERT编码器;将BERT编码器最后一个隐层输出通过全连接层与分类器,以交叉熵损失与KL散度之和计算样本的预测损失,在模型训练过程中根据样本的预测损失优化预训练参数,去除阅读理解位置偏差。本发明利用dropout技术正则化位置编码的基础上,通过在训练中拉低两次dropout产生的随机子模型分布的KL散度来约束随机性,提高模型对位置偏差鲁棒性的同时恢复答案预测准确度。

著录项

  • 公开/公告号CN115526148A

    专利类型发明专利

  • 公开/公告日2022-12-27

    原文格式PDF

  • 申请/专利权人 南京邮电大学;

    申请/专利号CN202211222708.2

  • 发明设计人 于舒娟;吴梦洁;赵阳;张虎;张昀;

    申请日2022-10-08

  • 分类号G06F40/126;G06K9/62;

  • 代理机构南京纵横知识产权代理有限公司;

  • 代理人董建林

  • 地址 210023 江苏省南京市栖霞区文苑路9号

  • 入库时间 2023-06-19 18:06:33

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-12-27

    公开

    发明专利申请公布

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号