首页> 中文期刊>中文信息学报 >自然语言处理:基于预训练模型的方法

自然语言处理:基于预训练模型的方法

     

摘要

作者:车万翔,郭江,崔一鸣著;刘挺主审出版社:电子工业出版社书号:ISBN 978-7-121-41512-8出版时间:2021.7自然语言处理技术经历了从早期的理性主义到后来的经验主义的转变。近十年来,深度学习技术快速发展,引发了自然语言处理领域一系列的变革。但是基于深度学习的算法有一个严重的缺点,就是过度依赖于大规模的有标注数据。2018年以来,以BERT、GPT为代表的超大规模预训练语言模型恰好弥补了自然语言处理标注数据不足的这一缺点,帮助自然语言处理取得了一系列的突破,使得包括阅读理解在内的众多自然语言处理任务的性能都得到了大幅提高.

著录项

  • 来源
    《中文信息学报》|2021年第7期|后插1|共1页
  • 作者

  • 作者单位
  • 原文格式 PDF
  • 正文语种 chi
  • 中图分类
  • 关键词

  • 入库时间 2022-08-20 07:39:13

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号