退出
我的积分:
中文文献批量获取
外文文献批量获取
王倩; 李茂西; 吴水秀; 王明文;
江西师范大学计算机信息工程学院,南昌330022;
跨语种预训练语言模型; 神经机器翻译; Transformer网络模型; XLM-R模型; 微调;
机译:基于命名实体识别的机器翻译中的语言模型预训练方法
机译:基于分层最大判别的深度神经网络快速高效的预训练方法
机译:序列数据的神经网络:基于隐马尔可夫模型的预训练方法
机译:基于弹性权重合并的神经机器翻译的无监督预训练
机译:用于统计机器翻译的基于语法的语言模型。
机译:研究预训练卷积神经网络在跨主题和跨数据集EEG情绪识别中的使用
机译:基于神经网络的统计机器翻译双语语言模型的建立
机译:基于回退的递归神经网络与N-gram语言模型的插值研究(作者手稿)。
机译:基于探索开发和预训练语言模型的异常文本检测和实体识别
机译:选择用于语言模型的训练文本的方法,使用该训练文本的训练语言模型的方法以及用于执行该方法的计算机和计算机程序
抱歉,该期刊暂不可订阅,敬请期待!
目前支持订阅全部北京大学中文核心(2020)期刊目录。