首页> 外文会议>電子情報通信学会;情報科学技術フォーラム;情報処理学会 >質問応答システムにおける各手法の性能比較: BERT が必ずしも有利とならないケースについて
【24h】

質問応答システムにおける各手法の性能比較: BERT が必ずしも有利とならないケースについて

机译:提问响应系统中各种方法的性能比较:关于BERT不一定有利的情况

获取原文

摘要

言語モデルにおける課題の一つとして、自然言語での多様な言い回しに柔軟に対応するための表現の確保が存在する。近年ではこの課題の解決策として、多量の教師なしデータから事前学習を行う手法が主流である。事前学習後モデルの利用方法には、分散表現を取り出して利用する方法や、事前学習したモデル自体を個別タスクへとファインチューニングする方法がある。前者の例としてはWord2Vec[1]、後者の例としては最新の言語モデルであるBERT[2]がある。BERT では特に文脈を含めた意味の把握が期待できる。
机译:作为语言模型中的课题之一,自然语言中的

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号