语言模型
语言模型的相关文献在1979年到2023年内共计1149篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、语言学
等领域,其中期刊论文391篇、会议论文83篇、专利文献155820篇;相关期刊191种,包括电脑知识与技术、计算机工程、计算机工程与应用等;
相关会议52种,包括第七届全国机器翻译研讨会、第五届全国信息检索学术会议CCIR2009、第十届全国人机语音通讯学术会议等;语言模型的相关文献由2437位作者贡献,包括颜永红、俞凯、张鹏远等。
语言模型—发文量
专利文献>
论文:155820篇
占比:99.70%
总计:156294篇
语言模型
-研究学者
- 颜永红
- 俞凯
- 张鹏远
- 潘接林
- 王作英
- 万广鲁
- 刘群
- 张一珂
- 王晓龙
- 王海峰
- 余正涛
- 侯宏旭
- 孙宇
- 宋彦
- 张鹏
- 李健
- 武卫东
- 刘奇
- 张建平
- 李露
- 王宏升
- 陈波
- M·马哈间
- 冯大航
- 刘挺
- 卢鲤
- 吴华
- 孙乐
- 孙茂松
- 岳帅
- 廖伟智
- 张翔
- 张连毅
- 徐波
- 李生
- 李鹏
- 阴艳超
- 陈孝良
- 刘加
- 刘志文
- 单海军
- 常乐
- 张仰森
- 张勇东
- 朱小燕
- 李东升
- 李涓子
- 李臻
- 林鸿飞
- 汪诚愚
-
-
王心雨;
景辉
-
-
摘要:
为扩大面向铁路旅客服务的语音识别应用,文章研究适用于铁路旅客服务应用的语音识别模型,使用基于卷积增强的Conformer编码结构和RNN-T模型结构,构建基于Conformer-Transducer的语音识别模型。由于卷积网络容易忽视输入信号整体与局部间关联,在Conformer结构中的卷积模块加入注意力机制,用以修正卷积模块的计算结果。构建铁路旅客服务语音数据集,对改进的语音识别模型进行测评;结果表明:改进后的语音识别模型准确率达到92.09%,相较于一般的Conformer-Transducer模型,语音识别字错误率降低0.33%。鉴于铁路旅客服务涉及铁路出行条例、旅客常问问题等众多文本信息,在语音识别模型中融入语言模型与热词赋权2种文本处理机制,使其在铁路专有名词的识别上优于通用的语音识别算法;文章研究提出的语音识别模型已应用于旅客常问问题查询设备和车站智能服务机器人,有助于提高铁路旅客服务水平,改善铁路旅客出行体验,促进铁路旅客服务工作实现减员增效。
-
-
李臻;
朱哲慧;
张立军;
何志祝;
宋正河;
朱忠祥
-
-
摘要:
从语音识别系统前端信号处理出发研究了语音信号特征的提取方法。对4种语音识别主流算法模型进行部署,构建了不同车载应用场景,并选择字错误率和实时率两种主流评价指标对算法模型进行了效果测试,开展了算法评价与分析,同时运用开源二维网格搜索法优化了百度DeepSpeech2模型,并对其进行硬件适配,使得模型识别精度、识别速率得到小幅度提升。此外,基于以上研究结果提出了合理的算法优化建议,为模型算法的稳健性研究提供理论参考。
-
-
颜俊琦;
孙水发;
吴义熔;
裴伟;
董方敏
-
-
摘要:
在大规模无监督语料上的BERT、XLNet等预训练语言模型,通常采用基于交叉熵损失函数的语言建模任务进行训练。模型的评价标准则采用困惑度或者模型在其他下游自然语言处理任务中的性能指标,存在损失函数和评测指标不匹配等问题。为解决这些问题,该文提出一种结合强化学习的对抗预训练语言模型RL-XLNet(Reinforcement Learning-XLNet)。RL-XLNet采用对抗训练方式训练一个生成器,基于上下文预测选定词,并训练一个判别器判断生成器预测的词是否正确。通过对抗网络生成器和判别器的相互促进作用,强化生成器对语义的理解,提高模型的学习能力。由于在文本生成过程中存在采样过程,导致最终的损失无法直接进行回传,故提出采用强化学习的方式对生成器进行训练。基于通用语言理解评估基准(GLUE Benchmark)和斯坦福问答任务(SQuAD 1.1)的实验,结果表明,与现有BERT、XLNet方法相比,RL-XLNet模型在多项任务中的性能上表现出较明显的优势:在GLUE的六个任务中排名第1,一个任务排名第2,一个任务排名第3。在SQuAD 1.1任务中F 1值排名第1。考虑到运算资源有限,基于小语料集的模型性能也达到了领域先进水平。
-
-
王琴;
王鑫;
颜靖柯;
钟美玲;
曾静
-
-
摘要:
为使题注生成模型生成流畅、连贯和信息丰富的特定信息题注,在Transformer架构的基础上提出了Transformer Chart to Text(TransChartText)模型。通过筛选各种科研论文和新闻文章网站,制作了基于图表的题注描述数据集,该数据集的英语题注描述涵盖了丰富的数据类别和逻辑推理。引入数据变量替换图表数据值,有效提高了模型生成题注的内容选择,促使模型生成了连贯的题注内容。为进一步增强模型学习词与词之间位置关系的能力并降低错误词序频率,模型分别对编码器和解码器引入空间位置嵌入编码和集束搜索算法。实验结果表明,TransChartText模型在内容选择(CS)、内容排序(CO)、ROUGE、BLEU指标上取得了更好的分数,生成了高质量的基于图表的英语题注。
-
-
朱娜娜;
王航;
张家乐;
孙英巍
-
-
摘要:
政策文本的量化研究近年来受到了政策研究学者的广泛关注,其研究结论以客观数据为依据,在很大程度上可以克服以往对政策定性分析的主观性和随机性。已有定量政策文本分析方法主要存在两方面的不足:一方面,对于政策文本的采集主要依靠手工收集,其数据规模较小;另一方面,在政策识别方面主要依靠人类经验,在小规模数据集上进行偏置归纳。针对以上问题,该文提出基于预训练语言模型的政策识别方法,从而克服以上问题,在较大规模的政策文本数据集上取得了较好的效果。
-
-
郑纬民
-
-
摘要:
近年来,预训练语言模型的出现给自然语言处理领域带来了一场变革,成为人工智能技术发展的前沿和热点。大规模预训练可以有效缓解传统技术在特征工程方面面临的压力。通过学习通用语言表示,模型具备了语言理解和生成能力,几乎在所有自然语言处理任务上都取得了突破。因此,各类基准测试任务的效果显著提高,这展示了大规模预训练广阔的应用前景。庞大的参数规模使得模型具备了更强的能力,同时也对模型的构建、训练和应用落地提出了挑战。
-
-
侯丹阳;
庞亮;
丁汉星;
兰艳艳;
程学旗
-
-
摘要:
基于大规模语料训练的语言模型,在文本生成任务上取得了突出性能表现。然而研究发现,这类语言模型在受到扰动时可能会产生攻击性的文本。这种不确定的攻击性给语言模型的研究和实际使用带来了困难,为了避免风险,研究人员不得不选择不公开论文的语言模型。因此,如何自动评价语言模型的攻击性成为一项亟待解决的问题。针对该问题,该文提出了一种语言模型攻击性的自动评估方法。它分为诱导和评估两个阶段。在诱导阶段,基于即插即用可控文本生成技术,利用训练好的文本分类模型提供的梯度方向更新语言模型的激活层参数,增加生成的文本具有攻击性的可能性。在评估阶段,利用训练好的文本分类模型的判别能力,估计诱导产生的攻击性文本的占比,用以评估语言模型的攻击性。实验评估了不同设置下的预训练模型的攻击性水平,结果表明该方法能够自动且有效地评估语言模型的攻击性,并进一步分析了语言模型的攻击性与模型参数规模、训练语料以及前置单词之间的关系。
-
-
王鑫;
宋永红;
张元林
-
-
摘要:
图像描述(Image captioning)是一个融合了计算机视觉和自然语言处理这两个领域的研究方向,本文为图像描述设计了一种新颖的显著性特征提取机制(Salient feature extraction mechanism,SFEM),能够在语言模型预测每一个单词之前快速地向语言模型提供最有价值的视觉特征来指导单词预测,有效解决了现有方法对视觉特征选择不准确以及时间性能不理想的问题.SFEM包含全局显著性特征提取器和即时显著性特征提取器这两个部分:全局显著性特征提取器能够从多个局部视觉向量中提取出显著性视觉特征,并整合这些特征到全局显著性视觉向量中;即时显著性特征提取器能够根据语言模型的需要,从全局显著性视觉向量中提取出预测每一个单词所需的显著性视觉特征.本文在MS COCO(Microsoft common objects in context)数据集上对SFEM进行了评估,实验结果表明SFEM能够显著提升基准模型(baseline)生成图像描述的准确性,并且SFEM在生成图像描述的准确性方面明显优于广泛使用的空间注意力模型,在时间性能上也大幅领先空间注意力模型.
-
-
杜凡;
张敏;
单祖植;
杨再鹤
-
-
摘要:
针对调度语音识别过程中单遍解码词图生成算法所生成词图精度较差的问题,研究基于语言模型的调度语音智能识别方法。构建由训练过程和识别过程组成的调度语音智能识别模型,训练过程中该模型提取语音数据的语音向量序列构建声学子模型,利用语言子模型训练文本数据构建语音词图,识别过程中对声学子模型、语音词图以及发音词典实施语音解码与搜索获取最优词序列,基于最优词序列完成调度语音智能识别。测试结果显示研究方法所生成的词图精度较高,可准确识别调度语音。
-
-
马晗;
唐柔冰;
张义;
张巧灵
-
-
摘要:
语音识别使声音变得"可读",让计算机能够"听懂"人类的语言并做出反应,是人工智能实现人机交互的关键技术之一.本文介绍了语音识别的发展历程,阐述了语音识别的原理概念与基础框架,分析了语音识别领域的研究热点和难点,最后,对语音识别技术进行了总结并就其未来研究进行了展望.
-
-
-
胡云聪;
俞凯
- 《第十四届全国人机语音通讯学术会议》
| 2017年
-
摘要:
传统语言模型是基于正确的词序列历史预测下一个单词的概率.而将语言模型应用于语音识别过程中,一般要对多条可能的词序列进行得分估计,这些词序列历史中包含了各种由于语音识别产生的错误,从而导致传统语言模型的预测产生偏差.本文在基于神经网络的语言模型上,提出了一种引入预训练词嵌套的改进方法,并在得分重估任务上进行了实验.实验结果表明,本文提出的语言模型考虑了词序列历史中的错误特征,在一定程度上提升了语言模型在语音识别应用中的容错性.
-
-
吴越;
刘奇;
俞凯
- 《第十四届全国人机语音通讯学术会议》
| 2017年
-
摘要:
神经网络被广泛应用于智能语音、自然语言处理、图像识别等各个领域,并应用小批量梯度下降法对其进行训练.然而该训练方法对初始学习率非常敏感,如果无法通过大量实验得到较好的初始学习率,会严重影响训练结果.本文将探究在LSTM语言模型中自适应地调整学习率和加入自适应稳定算子的L2范数优化对训练结果、收敛速度、初始学习率的敏感程度上的影响.最后得出结论,在语言模型中加入学习率的自适应稳定算子会降低初始学习率的敏感度,加快收敛速度,加入L2范数能小幅度提升模型性能.
-
-
-
JIYa-tu;
吉亚图;
SUYi-la;
苏依拉;
DOUBao-yuan
- 《2016年全国高性能计算学术年会》
| 2016年
-
摘要:
双语语料不足,语法结构的特殊性使得蒙汉机器翻译在大范围、长距离的语序差异问题上没有足够的描述能力,不能有效的对语序问题进行预测.针对这一问题,提出一种基于循环神经网络(Recurrent Neural Network RNN)的蒙汉机器翻译语言模型,该模型利用RNN能够动态的对语言中长距离历史和递归结构学习抽象表示的结构特点,从语料库中快速构建高性能翻译候选集,利用当前词的历史信息来预测下一个词出现的概率,解决了传统n-gram语言模型无法利用语句中长距离上下文的问题,同时高维的历史信息能够映射到低维的连续空间,并针对蒙古语黏着语特性通过语义相似度来对词语聚类,将蒙汉双语语料库少而不能有效训练的问题最小化.实验表明,基于RNN的蒙汉机器翻译语言模型在鲁棒性和可扩展性方面明显优于传统n-gram模型.
-
-
-
-
Min Li;
李敏;
Zhenjiang Miao;
苗振江;
Cong Ma;
马聪
- 《第十三届全国人机语音通讯学术会议》
| 2015年
-
摘要:
本文首先介绍了连续语音识别系统的基本组成及HTK工具箱的原理与应用,然后利用HTK工具箱搭建了一个连续语音识别系统,并在TIMIT—一个非特定人的大词汇量连续语音数据库上进行了实验.在实验的过程中,讨论了如何选择不同的语言模型,如何选择不同的声学模型进行建模,并且对模型的高斯混合度等参数进行了一系列的改进.通过实验,可知语言模型选择统计语言模型,声学单元选择三音素进行建模及模型的混合高斯度适当增加,都会提高连续语音识别的识别率.
-
-