首页> 中国专利> 多语言BERT序列标注模型的压缩方法及系统

多语言BERT序列标注模型的压缩方法及系统

摘要

本发明提供了多语言BERT序列标注模型的压缩方法及系统,涉及BERT类模型的知识蒸馏技术领域,该方法包括:步骤1:基于Wordpiece算法从多语语料中抽取词表;步骤2:对多/单语言BERT教师模型、多语言BERT学生模型进行预训练;步骤3:基于人工标注的下游任务数据对多/单语言BERT教师模型进行微调;步骤4:利用多/单语言BERT教师模型对预训练后的多语言BERT学生模型进行残差知识蒸馏;步骤5:基于人工标注的下游任务数据对蒸馏后的多语言BERT学生模型进行微调。本发明通过残差学习和多对一的知识蒸馏方式,提高了学生模型的准确率和泛化程度,降低了多语言环境下BERT类序列标注模型部署所需的硬件资源。

著录项

  • 公开/公告号CN112613273A

    专利类型发明专利

  • 公开/公告日2021-04-06

    原文格式PDF

  • 申请/专利权人 上海交通大学;

    申请/专利号CN202011490078.8

  • 发明设计人 撖朝润;李琦;傅洛伊;王新兵;

    申请日2020-12-16

  • 分类号G06F40/126(20200101);G06F40/242(20200101);G06F40/289(20200101);G06F40/295(20200101);

  • 代理机构31236 上海汉声知识产权代理有限公司;

  • 代理人胡晶

  • 地址 200240 上海市闵行区东川路800号

  • 入库时间 2023-06-19 10:29:05

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-09-23

    授权

    发明专利权授予

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号