首页> 中国专利> 一种无监督的非自回归古诗生成方法、装置及存储介质

一种无监督的非自回归古诗生成方法、装置及存储介质

摘要

本发明提供一种无监督的非自回归古诗生成方法、装置及存储介质,属于文本生成领域。本发明主要包括,使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习;以及,利用学习后的文本生成模型以非自回归的方式生成古诗的步骤。本发明的有益效果是直接对海量的古诗库中古诗特征进行全面学习,减少了学习前提取关键词的步骤,大大减少了需要耗费的人力和计算资源,并且避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

著录项

  • 公开/公告号CN112800750A

    专利类型发明专利

  • 公开/公告日2021-05-14

    原文格式PDF

  • 申请/专利权人 浙江香侬慧语科技有限责任公司;

    申请/专利号CN202110101971.5

  • 发明设计人 孙晓飞;韩庆宏;

    申请日2021-01-26

  • 分类号G06F40/216(20200101);G06N3/08(20060101);

  • 代理机构11862 北京国科程知识产权代理事务所(普通合伙);

  • 代理人曹晓斐

  • 地址 311121 浙江省杭州市余杭区余杭街道文一西路1818-2号9幢903室

  • 入库时间 2023-06-19 10:58:46

说明书

技术领域

本发明涉及文本生成领域,特别是一种无监督的非自回归古诗生成方法、装置及存储介质。

背景技术

古诗的生成是文本生成的一种,即让模型自动生成整齐对仗的古诗,一般按照中国传统唐诗的格式,如五言或七言律诗或绝句。

现有技术中的古诗生成大多采用“自回归”式生成方法,其所利用的模型是通过有监督的学习得到的模型,即需要抽取出每一句的“关键词”,用来概括这一句古诗的大致内容,而关键词是需要使用权重计算方法(TF-IDF)或者人工标注的方法去抽取的,需要耗费大量的人力或计算资源;并且现有技术中每生成古诗的一个字即需要运行一次模型,当模型非常大的时候,其时间开销过大,不利于实际的应用。

发明内容

本申请提供了一种无监督的非自回归古诗生成方法、装置及存储介质,利用文本生成模型进行无监督学习,非自回归的方式生成古诗。

为了实现上述目的,本申请采用的技术方案是,提供一种无监督的非自回归古诗生成方法,包括步骤:

使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习;以及,

利用学习后的文本生成模型以非自回归的方式生成古诗。

本申请的另外一个技术方案为,提供一种无监督的非自回归古诗生成装置,包括,

用于使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块;以及,

用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块。

本申请的另外一个技术方案为,提供一种计算机可读存储介质,其存储计算机指令,其中的计算机指令被操作以执行上述的无监督的非自回归古诗生成方法。

本申请的有益效果是,

本发明利用文本生成模型进行无监督学习,非自回归的方式生成古诗,直接对海量的古诗库中古诗特征进行全面学习,减少了学习前提取关键词的步骤,大大减少了需要耗费的人力和计算资源,并且避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

附图说明

图1是本申请一种无监督的非自回归古诗生成方法的一个具体实施方式流程示意图;

图2是本申请一种无监督的非自回归古诗生成方法的一个具体实施例流程示意图;

图3是本申请一种无监督的非自回归古诗生成方法的一个具体实例流程示意图;

图4是本申请一种无监督的非自回归古诗生成装置的一个具体实施方式示意图;

具体实施方式

下面结合附图对本发明较佳实施例进行详细阐述,以使本发明的优点和特征更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚的界定。

需要说明的是,在本文中,诸如第一第二等之类的关系属于仅仅用来将一个实体或操作与另外一个实体或操作区分开来,而不一定要求或暗示这些实际操作之间存在任何这种实际的关系或顺序。而且,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包含一系列要素的过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

图1的流程图示出了本申请一种无监督的非自回归古诗生成方法的一个具体实施方式。

在图1所示的具体实施方式中,本申请一种无监督非自回归古诗生成方法,包括过程S101以及过程S102。

图1示出的过程S101表示的是使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,这样就能够在不需要人工标注的前提下,充分利用现有的海量古诗词数据学习生成古诗,并且文本生成模型对于不同大小的古诗内容单位相应内容特征进行的学习,能够便于后期在古诗生成的过程中以非自回归的方式进行古诗生成。

在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括给定一首古诗的部分或全部内容,将其中的古诗单位内容替换成特殊字符后送入文本生成模型,文本生成模型对被特殊字符替换的古诗单位内容进行预测,这种文本生成模型进行无监督方式的学习,能够在不需要人工标注的前提下,充分利用现有的海量古诗词数据学习生成古诗。

在本申请的一个具体实施例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位可以为古诗的字、句、以及联三者中的至少一者,并且文本生成模型对于字、句、以及联的不同大小的古诗内容单位相应内容特征进行的学习,能够便于后期在古诗生成的过程中以非自回归的方式进行古诗生成。

在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的字,便于后期在古诗生成的过程中生成古诗中的字。

在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的词,便于后期在古诗生成的过程中生成古诗中生成古诗中的词。

在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的句,便于后期在古诗生成的过程中生成古诗中生成古诗中的句。

在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的段,便于后期在古诗生成的过程中生成古诗中生成古诗中的段。

在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的联,便于后期在古诗生成的过程中生成古诗中生成古诗中的联。

在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的字和句。

在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,对古诗词的字、词、句、段以及联进行学习,以便于后期在古诗生成的过程中生成古诗中直接生成古诗中的相应的单位内容,以非自回归的方式进行古诗生成。

图2示出了本申请的一个具体实例,在图2示出的实例中,过程S201表示的是使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,其中古诗内容单位为古诗的字、句和联。

在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的古诗单位内容的意义和/或其前后衔接关系进行无监督学习,以便于后期在古诗生成的过程中生成古诗中直接生成古诗中的字、句以及联,以非自回归的方式进行古诗生成。

在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中的古诗单位内容的意义进行无监督学习。

在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中的古诗单位内容的前后衔接关系进行无监督学习。

在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中的古诗单位内容的意义和前后衔接关系进行无监督学习。

在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的意义进行学习。

在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的前后衔接关系进行学习。

优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的语义衔接关系或平仄规则进行学习。

优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的平仄规则进行学习。

在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的句的意义进行学习。

在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的句的前后衔接关系进行学习。

优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的一联中上句与下句之间的对偶关系进行学习。

例如,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的一联中上句与下句之间的语义衔接关系或平仄规则进行学习

在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的联的意义进行学习。

在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的联的前后衔接关系进行学习。

优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的联的平仄规则或对仗关系进行学习。

图1示出的过程S102表示的是利用学习后的文本生成模型以非自回归的方式生成古诗的过程,能够可以利用文本生成模型以非自回归的方式生成句与句之间流畅衔接的古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

在本申请的一个具体实施例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定所述古诗单位内容,输入学习后的所述文本生成模型,文本生成模型一次性生成至少一个对应的古诗单位内容。

在本申请的一个具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的字,输入学习后的文本生成模型,文本生成模型一次性生成一个字。

在本申请的一个具体实例中,如图2及图3所示,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的字,输入学习后的文本生成模型,文本生成模型一次性生成多个个字,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

在本申请的一个具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的句,如图3所示,输入学习后的文本生成模型,文本生成模型一次性生成一个句,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

在本申请的一个具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的联,输入学习后的文本生成模型,如图3所示,文本生成模型一次性生成一个联,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

在本申请的一个具体实施例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,当文本生成模型生成的较小古诗内容单位的单位内容,能够形成一个较大的古诗单位内容时,将较大的古诗单位内容输入文本生成模型继续进行古诗生成,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

在图2以及图3示出的具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,文本生成模型一次生成多个字能够形成一个句时,将这个句输入文本生成模型继续生成古诗;当文本生成模型生成的句能够形成包括上下句的一个联时,将联输入文本生成模型,一次生成一个联;这样就得到了一首律绝体古诗,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

图4的示意图示出了本申请一种无监督的非自回归古诗生成装置的一个具体实施方式。

图4示出的示意图中,本申请一种无监督的非自回归古诗生成装置包括4模块401,以及模块402。

图4的模块401表示的是用于使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块,使得就能够在不需要人工标注的前提下,充分利用现有的海量古诗词数据学习生成古诗,并且文本生成模型对于不同大小的古诗内容单位相应内容特征进行的学习,能够便于后期在古诗生成的过程中以非自回归的方式进行古诗生成。

在本申请的一个具体实施例中,使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块,能够给定一首古诗的部分或全部内容,将其中的古诗单位内容替换成特殊字符后送入文本生成模型,文本生成模型对被特殊字符替换的古诗单位内容进行预测。

在本申请的一个具体实施例中,使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块中,古诗内容单位可以为字、词、句、联、段。

图4的模块402表示的是用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块,使得能够利用文本生成模型以非自回归的方式生成句与句之间流畅衔接的古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。

在本申请的一个具体实施例中,用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块可以,将预定所述古诗单位内容,输入学习后的所述文本生成模型,文本生成模型一次性生成至少一个对应的古诗单位内容。

在本申请的一个具体实施例中,用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块可以在当文本生成模型生成的较小古诗内容单位的单位内容,能够形成一个较大的古诗单位内容时,将较大的古诗单位内容输入文本生成模型继续进行古诗生成。

在本申请的一个具体实施方式中,本申请的一种无监督的非自回归古诗生成装置的用于使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块、用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块,可直接在硬件中、在由处理器执行的软件模块中或在两者的组合中。

软件模块可驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可装卸盘、CD-ROM或此项技术中已知的任何其它形式的存储介质中。示范性存储介质耦合到处理器,使得处理器可从存储介质读取信息和向存储介质写入信息。

处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC)、现场可编程门阵列(英文:Field Programmable Gate Array,简称:FPGA)或其它可编程逻辑装置、离散门或晶体管逻辑、离散硬件组件或其任何组合等。通用处理器可以是微处理器,但在替代方案中,处理器可以是任何常规处理器、控制器、微控制器或状态机。处理器还可实施为计算装置的组合,例如DSP与微处理器的组合、多个微处理器、结合DSP核心的一个或一个以上微处理器或任何其它此类配置。在替代方案中,存储介质可与处理器成一体式。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替代方案中,处理器和存储介质可作为离散组件驻留在用户终端中。

在本申请的一个具体实施方式中,一种计算机可读存储介质,其存储计算机指令,计算机指令被操作以执行任一实施例描述的无监督的非自回归古诗生成方法。

在本申请所提供的实施方式中,应该理解到,所揭露的方法和系统,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分仅仅为一种逻辑功能的划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以省略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些借口,装置或单元的间接耦合或通信连接,可以是典型,机械或其他的形式。

所述作为分离不见说明的单元可以是或者可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号