首页> 中国专利> 一种文本生成方法及设备

一种文本生成方法及设备

摘要

本申请公开了一种文本生成方法及设备,该文本生成方法包括:获取输入文本;根据所述输入文本对一预训练模型进行参数优化训练获得文本生成模型;根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的输出文本。通过本发明提供的文本生成方法,能够针对特定主题进行专项写作,无需对预训练的模型进行大规模重新训练,只需要对其中个别参数进行动态调整,快速提高输出文本准确率。

著录项

  • 公开/公告号CN112287667A

    专利类型发明专利

  • 公开/公告日2021-01-29

    原文格式PDF

  • 申请/专利权人 北京明略昭辉科技有限公司;

    申请/专利号CN202011156277.5

  • 发明设计人 卫海天;丁若谷;

    申请日2020-10-26

  • 分类号G06F40/216(20200101);G06F40/44(20200101);G06F16/35(20190101);

  • 代理机构37256 青岛清泰联信知识产权代理有限公司;

  • 代理人赵燕

  • 地址 100089 北京市海淀区北三环西路25号27号楼二层2020室

  • 入库时间 2023-06-19 09:43:16

说明书

技术领域

本本说明书一个或多个实施例涉及自然语言处理技术领域,尤其涉及一种文本生成方法及设备。

背景技术

自然语言处理,尤其是自然语言生成问题,长久以来被认为是最具挑战性的任务之一。自然语言生成是研究使计算机具有人一样的表达和写作的功能,即能够根据一些关键信息及其在机器内部的表达形式,经过一个规划过程,来自动生成一段高质量的自然语言文本。

自然语言生成是人工智能和计算语言学的分支,相应的语言生成系统是基于语言信息处理的计算机模型,其工作过程与自然语言分析相反,是从抽象的概念层次开始,通过选择并执行一定的语义和语法规则来生成文本。

计算机文本生成的应用越来越广泛,尤其是品牌商们为了能够在网络上更加及时的触达用户,需要能够及时生成出契合品牌和产品的文案进行发布,而当前计算机文本生成存在以下问题:

1、应用范围狭小,主要应用于客服机器人、问答系统等领域,其他领域难以涉及应用;

2、仅能生成少量和输入文本相关的内容,无法从写作主题角度对文本写作内容进行控制;

3、对于需要输出较长的文本时,缺少合理的机制确保内容和主题相关,导致输出大量关联度低的文本词;

4、无法针对特定主题,如特定的品牌和产品进行专项写作。

发明内容

针对上述技术背景问题,本发明揭示了一种文本生成方法,用以提供一种针对特定主题进行专项写作文本的方法,短时间内输出大量和预设主题相关文稿,提高工作效率。

本发明提供了一种文本生成方法,所述方法包括以下步骤:

S1、获取输入文本;

S2、根据所述输入文本对一预训练模型进行参数优化训练获得文本生成模型;

S3、根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的输出文本。

作为本发明的进一步改进,所述步骤S3具体包括以下步骤:

S31、根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的初始文本;

S32、计算所述初始文本的主题生成概率;

S33、判断所述主题生成概率是否大于设定阈值;

S34、若所述主题生成概率大于所述设定阈值,则直接输出初始文本;若所述主题生成概率小于所述设定阈值,则根据所述主题生成概率更新所述文本生成模型以生成新的初始文本,对所述主题生成概率进行调整,直至所述主题生成概率满足阈值要求,从而输出初始文本;

S35、判断所述初始文本的文本长度;

S36、若所述初始文本长度达到预设文本长度,则所述初始文本为所述输出文本;若所述初始文本长度未达到预设文本长度,则循环执行所述步骤S31至所述步骤S36,继续获得新的初始文本,直至所述初始文本长度累计达到预设文本长度,获得所述输出文本。

作为本发明的进一步改进,所述步骤S2中预训练模型为GPT-2模型。

作为本发明的进一步改进,所述步骤S32中主题生成概率为所述初始文本属于预设主题的概率,根据所述初始文本通过词袋模型进行计算所述主题生成概率。

作为本发明的进一步改进,所述步骤S34中根据所述主题生成概率更新所述文本生成模型具体包括以下步骤:

S341、根据所述主题生成概率计算所述初始文本的更新梯度;

S342、根据所述更新梯度更新所述文本生成模型的内部参数。

基于相同发明思想,本申请还基于上述任一项发明创造所揭示的方法,揭示了一种文本生成设备,

所述文本生成设备包括:

文本获取模块,用于获取输入文本;

模型生成模块,用于根据所述输入文本对一预训练模型进行参数优化训练获得文本生成模型;

文本输出模块,用于根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的输出文本。

作为本发明的进一步改进,所述文本输出模块包括:

初始文本生成模块,用于根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的初始文本;

概率计算模块,用于计算所述初始文本的主题生成概率;

概率判断模块,用于判断所述主题生成概率是否大于设定阈值;

模型更新模块,若所述主题生成概率大于所述设定阈值,则直接输出初始文本;若所述主题生成概率小于所述设定阈值,则根据所述主题生成概率更新所述文本生成模型以生成新的初始文本,对所述主题生成概率进行调整,直至所述主题生成概率满足阈值要求;

文本长度判断模块,用于判断所述初始文本的文本长度;

文本长度调整模块,若所述初始文本长度达到预设文本长度,则所述初始文本为所述输出文本;若所述初始文本长度未达到预设文本长度,则循环执行所述步骤S31至所述步骤S36,继续获得新的初始文本,直至所述初始文本长度累计达到预设文本长度,获得所述输出文本。

作为本发明的进一步改进,所述模型生成模块中预训练模型为GPT-2模型。

作为本发明的进一步改进,所述概率计算模块中主题生成概率为所述初始文本属于预设主题的概率,根据所述初始文本通过词袋模型进行计算所述主题生成概率。

作为本发明的进一步改进,所述模型更新模块包括:

更新梯度计算模块,用于根据所述主题生成概率计算所述初始文本的更新梯度;

模型参数更新模块,用于根据所述更新梯度更新所述文本生成模型的内部参数。

与现有技术相比,本发明的有益效果如下:

1、提出了一种文本生成方法,可以针对特定主题进行专项写作,提高写作效率,减少人力投入;

2、无需对预训练的模型进行大规模重新训练,只需要对其中个别参数进行动态调整,快速提高输出文本准确率;

3、短时间内输出符合预设主题的文案底稿,提高文案人员的工作效率,节约劳动力;

4、能够从海量文本中学习捕捉文案人员无法分析到的特性进行写作,确保输出文本与预设主题相关。

本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。在附图中:

图1是本发明实施例提供的一种文本生成方法整体流程图;

图2是图1所揭示的步骤S3的整体流程图;

图3是图2所揭示的步骤S34中文本生成模型更新流程图;

图4是本发明实施例提供的一种文本生成设备结构框架图;

图5是根据本发明实施例的计算机设备的框架图。

以上图中:

100、文本获取模块;200、模型生成模块;300、文本输出模块;301、初始文本生成模块;302、概率计算模块;303、概率判断模块;304、模型更新模块;3041、更新梯度计算模块;3042、模型参数更新模块;305、文本长度判断模块;306、文本长度调整模块;80、总线;81、处理器;82、存储器;83、通信接口。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。

显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。

在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。

除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。

下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。

在详细阐述本发明各个实施例之前,对本发明的核心发明思想予以概述,并通过下述若干实施例予以详细阐述。

本发明揭示了一种文本生成方法,针对特定主题进行专项写作,无需对预训练的模型进行大规模重新训练,只需要对其中个别参数进行动态调整,快速提高输出文本准确率,短时间内输出符合预设主题的文案底稿,提高文案人员的工作效率,节约劳动力,而且能够从海量文本中学习捕捉文案人员无法分析到的特性进行写作,确保输出文本与预设主题相关。

本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。

实施例一:

参照图1所示,本实例揭示了一种文本生成方法(以下简称“方法”)的具体实施方式。

具体而言参照图1所示,本实施例所揭示的方法主要包括以下步骤:

步骤S1、获取输入文本。

具体而言,步骤S1中输入文本为特定行业的文本语料,针对不同行业需求进行文本收集,根据收集的特定行业文本语料准备进行文本生成模型的训练。例如:欲对化妆品行业进行特定主题的文本写作,需要先选取化妆品行业语料进行准备。

然后,执行步骤S2、根据所述输入文本对一预训练模型进行参数优化训练获得文本生成模型。

在本实施例中,预训练模型为GPT-2模型。GPT-2为一个大规模无监督的自然语言处理(NLP)模型,被称为“史上最强通用NLP模型”,该模型可以生成连贯的文本段落,刷新了7大数据集基准,并且能在未经预训练的情况下,完成阅读理解、问答、机器翻译等多项不同的语言建模任务。GPT-2有着超大的规模,是一个在海量数据集上基于transformer训练的巨大模型。

最后参照图2,执行步骤S3、根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的输出文本。

具体而言,步骤S3具体包括以下内容:

S31、根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的初始文本;

S32、计算所述初始文本的主题生成概率;

S33、判断所述主题生成概率是否大于设定阈值;

S34、若所述主题生成概率大于所述设定阈值,则直接输出初始文本;若所述主题生成概率小于所述设定阈值,则根据所述主题生成概率更新所述文本生成模型以生成新的初始文本,对所述主题生成概率进行调整,直至所述主题生成概率满足阈值要求,从而输出初始文本;

S35、判断所述初始文本的文本长度;

S36、若所述初始文本长度达到预设文本长度,则所述初始文本为所述输出文本;若所述初始文本长度未达到预设文本长度,则循环执行所述步骤S31至所述步骤S36,继续获得新的初始文本,直至所述初始文本长度累计达到预设文本长度,获得所述输出文本。

具体而言,主题生成概率的计算采用词袋模型。主题生成概率即为当前初始文本属于预设主题的概率,它可直观看出该文本输出是否符合要求。例如:根据文本已生成内容“这款洗面奶很好用”计算该内容属于主题‘洗面奶’的概率。词袋模型是个在自然语言处理和信息检索下被简化的表达模型,在词袋模型下,句子或是文件这样的文字可以用一个袋子装着这些词的方式表现,这种表现方式不考虑文法以及词的顺序。词袋模型被广泛应用在文件分类以及电脑视觉领域,词出现的频率可以用来当作训练分类器的特征。

在其中一些实施例中,参照图3所示,步骤S34中根据所述主题生成概率更新所述文本生成模型包括如下步骤:

S341、根据所述主题生成概率计算所述初始文本的更新梯度;

S342、根据所述更新梯度更新所述文本生成模型的内部参数。

具体而言,初始文本的更新梯度计算公式为:

式中,ΔH

具体而言,根据更新梯度对文本生成模型的内部历史参数进行更新,然后从更新后的参数中进行中心采样,生成新的初始文本。

通过本实施例所揭示的一种文本生成方法,针对特定主题进行专项写作,无需对预训练的模型进行大规模重新训练,只需要对其中个别参数进行动态调整,快速提高输出文本准确率,短时间内输出符合预设主题的文案底稿,提高文案人员的工作效率,节约劳动力,能够从海量文本中学习捕捉文案人员无法分析到的特性进行写作,确保输出文本与预设主题相关。

实施例二:

结合实施例一所揭示的一种文本生成方法,本实施例揭示了一种文本生成设备(以下简称“设备”)的具体实施示例。

参照图4所示,所述设备包括:

文本获取模块100,用于获取输入文本;

模型生成模块200,用于根据所述输入文本对一预训练模型进行参数优化训练获得文本生成模型;

文本输出模块300,用于根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的输出文本。

在其中一些实施例中,输入文本为特定行业的文本语料,针对不同行业需求进行文本收集,根据收集的特定行业文本语料准备进行文本生成模型的训练。比如:欲对化妆品行业进行特定主题的文本写作,需要先选取化妆品行业语料进行准备。

在其中一些实施例中,预训练模型为GPT-2模型。GPT-2为一个大规模无监督的自然语言处理(NLP)模型,被称为“史上最强通用NLP模型”,该模型可以生成连贯的文本段落,刷新了7大数据集基准,并且能在未经预训练的情况下,完成阅读理解、问答、机器翻译等多项不同的语言建模任务。GPT-2有着超大的规模,是一个在海量数据集上基于transformer训练的巨大模型。

在其中一些实施例中,文本输出模块300包括:

初始文本生成模块301,用于根据所述输入文本应用所述文本生成模型生成对应于所述输入文本的初始文本;

概率计算模块302,用于计算所述初始文本的主题生成概率;

概率判断模块303,用于判断所述主题生成概率是否大于设定阈值;

模型更新模块304,若所述主题生成概率大于所述设定阈值,则直接输出初始文本;若所述主题生成概率小于所述设定阈值,则根据所述主题生成概率更新所述文本生成模型以生成新的初始文本,对所述主题生成概率进行调整,直至所述主题生成概率满足阈值要求;

文本长度判断模块305,用于判断所述初始文本的文本长度;

文本长度调整模块306,若所述初始文本长度达到预设文本长度,则所述初始文本为所述输出文本;若所述初始文本长度未达到预设文本长度,则循环执行所述步骤S31至所述步骤S36,继续获得新的初始文本,直至所述初始文本长度累计达到预设文本长度,获得所述输出文本。

具体而言,模型更新模块304包括:

更新梯度计算模块3041,用于根据所述主题生成概率计算所述初始文本的更新梯度;

模型参数更新模块3042,用于根据所述更新梯度更新所述文本生成模型的内部参数。

在其中一些实施例中,主题生成概率的计算采用词袋模型。主题生成概率即为当前输出初始文本内容属于预设主题的概率,它可直观看出该文本输出是否符合要求。词袋模型是个在自然语言处理和信息检索下被简化的表达模型,在词袋模型下,句子或是文件这样的文字可以用一个袋子装着这些词的方式表现,这种表现方式不考虑文法以及词的顺序。词袋模型被广泛应用在文件分类以及电脑视觉领域,词出现的频率可以用来当作训练分类器的特征。

本实施例所揭示的一种文本生成设备与实施例一所揭示的一种文本生成方法中其余相同部分的技术方案,请参实施例一所述,在此不再赘述。

实施例三:

结合图5所示,本实施例揭示了一种计算机设备的一种具体实施方式。计算机设备可以包括处理器81以及存储有计算机程序指令的存储器82。

具体地,上述处理器81可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。

其中,存储器82可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器82可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(UniversalSerial Bus,简称为USB)驱动器或者两个或更多个以上这些的组合。

在合适的情况下,存储器82可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器82可在数据处理装置的内部或外部。在特定实施例中,存储器82是非易失性(Non-Volatile)存储器。在特定实施例中,存储器82包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(Random Access Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable Programmable Read-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable Programmable Read-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-Only Memory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(StaticRandom-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random AccessMemory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page ModeDynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic Random Access Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。

存储器82可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器81所执行的可能的计算机程序指令。

处理器81通过读取并执行存储器82中存储的计算机程序指令,以实现上述实施例中的任意一种文本生成方法。

在其中一些实施例中,计算机设备还可包括通信接口83和总线80。其中,如图5所示,处理器81、存储器82、通信接口83通过总线80连接并完成相互间的通信。

通信接口83用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信端口83还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。

总线80包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线80包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(Control Bus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线80可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(Front Side Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线80可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。

该计算机设备可以对特定主题进行文本生成,从而实现结合图1描述的文本生成方法。

另外,结合上述实施例中文本生成方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种文本生成方法。

以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

综上所述,基于本发明的有益效果在于,提出了一种文本生成方法,可以针对特定主题进行专项写作,提高写作效率,减少人力投入,无需对预训练的模型进行大规模重新训练,只需要对其中个别参数进行动态调整,快速提高输出文本准确率,短时间内输出符合预设主题的文案底稿,提高文案人员的工作效率,节约劳动力,并且能够从海量文本中学习捕捉文案人员无法分析到的特性进行写作,确保输出文本与预设主题相关。

以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号