首页> 中国专利> 作文生成模型训练方法及装置

作文生成模型训练方法及装置

摘要

本公开涉及机器学习技术领域,提供了一种作文生成模型训练方法及装置。该方法包括:获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型。

著录项

  • 公开/公告号CN116595385B

    专利类型发明专利

  • 公开/公告日2023.10.03

    原文格式PDF

  • 申请/专利权人 深圳须弥云图空间科技有限公司;

    申请/专利号CN202310876691.0

  • 发明设计人 王芳;暴宇健;

    申请日2023.07.18

  • 分类号G06F18/214(2023.01);

  • 代理机构北京嘉科知识产权代理事务所(特殊普通合伙) 11687;

  • 代理人马瑞

  • 地址 518054 广东省深圳市南山区粤海街道海珠社区滨海大道3369号有线信息传输大厦25F2504

  • 入库时间 2023-11-27 17:39:07

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2023-10-03

    授权

    发明专利权授予

说明书

技术领域

本公开涉及机器学习技术领域,尤其涉及一种作文生成模型训练方法及装置。

背景技术

近年来,计算机技术飞速发展,许多行业都可以利用人工智能技术得到极大的支持和提高。在文章生成领域,越来越多的人青睐于使用作文生成模型生成作文。虽然现有的作文生成模型在语言生成方面已经取得了很大的进展,但是生成的文本在逻辑性和连贯性方面还是存在一定的问题。

发明内容

有鉴于此,本公开实施例提供了一种作文生成模型训练方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,模型生成的作文逻辑差以及语义不连贯的问题。

本公开实施例的第一方面,提供了一种作文生成模型训练方法,包括:获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型。

本公开实施例的第二方面,提供了一种作文生成模型训练装置,包括:第一训练模块,被配置为获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;构建模块,被配置为获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;第二训练模块,被配置为基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;第三训练模块,被配置为基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型。

本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。

本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。

本公开实施例与现有技术相比存在的有益效果是:因为本公开实施例通过获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型,因此,采用上述技术手段,可以解决现有技术中,模型生成的作文逻辑差以及语义不连贯的问题,进而提高生成的作文的可读性。

附图说明

为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。

图1是本公开实施例提供的一种作文生成模型训练方法的流程示意图;

图2是本公开实施例提供的一种构建第二训练数据集和第三训练数据集的方法的流程示意图;

图3是本公开实施例提供的一种作文生成模型训练装置的结构示意图;

图4是本公开实施例提供的一种电子设备的结构示意图。

具体实施方式

以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。

图1是本公开实施例提供的一种作文生成模型训练方法的流程示意图。图1的作文生成模型训练方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该作文生成模型训练方法包括:

S101,获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;

S102,获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;

S103,基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;

S104,基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型。

获取第一训练数据集,利用训练后的预训练语言模型构建第二训练数据集和第三训练数据集,以及使用作文生成模型生成的文章都应该不侵犯他人的著作权,并且符合相关的法律法规规定。

具体地:第一训练数据集、第二训练数据集、第三训练数据集均具有大量的题目要求和每个题目要求对应的作文,题目数据集具有大量的题目要求,题目要求是需要生成作文的要求,预训练语言模型理解题目要求如同人写作文之前审题;利用交叉熵损失函数对预训练语言模型进行训练,属于有监督训练,在该训练中,题目要求为训练样本,该题目要求对应的作文为训练样本的标签;利用三元组损失函数对题文距离衡量模型进行训练,属于无监督训练;利用策略梯度函数对训练后的预训练语言模型进行再训练,属于强化学习训练;预训练语言模型可以是OPT模型,英文全称是Open-Pre-trained-Transformer;题文距离衡量模型是双塔结构的BERT模型,在双塔结构中,一个分支用于处理题目要求,另一个分支用于处理题目要求对应的作文,双塔结构为是常见结构,不再赘述。

根据本公开实施例提供的技术方案,获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型,因此,采用上述技术手段,可以解决现有技术中,模型生成的作文逻辑差以及语义不连贯的问题,进而提高生成的作文的可读性。

图2是本公开实施例提供的一种构建第二训练数据集和第三训练数据集的方法的流程示意图。如图2所示,包括:

S201,将题目数据集中的题目要求对应的作文投放到多个网上平台,以获取关于多个网上平台的用户对题目数据集中的题目要求对应作文的阅览时长;

S202,将题目数据集中的题目要求、该题目要求对应的阅览时长最长的作文以及该题目要求对应的阅览时长最短的作文组建得到第二训练数据集;

S203,将题目数据集中的题目要求以及该题目要求对应的阅览时长最长的作文组建得到第三训练数据集。

也就是说,第二训练数据集,包括:题目数据集中的题目要求、该题目要求对应的阅览时长最长的作文以及该题目要求对应的阅览时长最短的作文;第三训练数据集,包括:题目数据集中的题目要求以及该题目要求对应的阅览时长最长的作文。

三元组损失函数L,包括:

其中,a为题目数据集中题目要求的向量,p为该题目要求对应的阅览时长最长的作文的向量,n为该题目要求对应的阅览时长最短的作文的向量,d( )为距离度量函数,margin为预设向量。

比如,训练后的预训练语言模型为题目数据集中的题目要求总共三次生成对应的作文,那么该题目要求对应的三篇作文,分别记作A、B、C,A是该题目要求对应的阅览时长最长的作文,p是A的向量,C是该题目要求对应的阅览时长最短的作文,n是C的向量,B无用舍弃。

基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,包括:将第三训练数据集中的题目要求作为训练后的作文生成模型的输入,将该题目要求对应的阅览时长最长的作文作为训练后的作文生成模型的输出,将该题目要求对应的题文距离作为奖励,利用策略梯度函数对训练后的预训练语言模型进行再训练;其中,将该题目要求和该题目要求对应的阅览时长最长的作文输入训练后的题文距离衡量模型,输出该题目要求对应的题文距离。

策略梯度函数如下:

其中,θ为训练后的预训练语言模型的模型参数,

比如,训练后的预训练语言模型为题目数据集中的题目要求总共三次生成对应的作文,那么该题目要求对应的三篇作文,分别记作A、B、C,A是该题目要求对应的阅览时长最长的作文,该题目要求记作D。将A和D输入训练后的题文距离衡量模型,输出该题目要求对应的题文距离,记作E。利用策略梯度函数对训练后的预训练语言模型进行再训练:D作为训练后的作文生成模型的输入,A是训练后的作文生成模型的输出,将E作为奖励,更新训练后的预训练语言模型的模型参数。

在对预训练语言模型进行训练或者再训练时:利用预训练语言模型提取题目要求以及该题目要求对应的作文的句子级表示和题级表示;通过题目要求以及该题目要求对应的作文的句子级表示和题级表示,增强预训练语言模型对题目要求以及该题目要求对应的作文的理解,以完成对预训练语言模型的训练或者再训练。

按照逗号、句号和问号等符号,可以将一个题目要求划分为多条句子,该题目要求的题级表示是该题目要求整体的特征表示,该题目要求的句子级表示是该题目要求中每条句子的特征表示(细节特征),句子级表示是比题级表示更详细的特征表示。题目要求对应的作文的句子级表示和题级表示与题目要求的句子级表示和题级表示类似。本申请实施例根据句子级表示和题级表示(也就是在关注到整体特征时,也关注到细节特征),增强预训练语言模型对题目要求以及题目要求对应的作文的理解,可以使得预训练语言模型进行更具有逻辑和通顺的生成作为。

在对预训练语言模型进行训练时,按照如下方法提供一种动态温度超参:根据当前批次计算得到的损失值,利用梯度反向网络计算当前批次采用的温度超参的梯度,其中,当前批次计算得到的损失值是当前批次中交叉熵损失函数计算的结果,若当前批次为第一批次,则当前批次采用的温度超参是根据用户指令设置的;根据当前批次采用的温度超参以及其梯度,利用可学习温度超参网络确定当前批次的下一个批次采用的温度超参;其中,训练包括多个批次训练,温度超参用于控制预训练语言模型的输出的质量和多样性。

本申请实施例提供了一种动态温度超参,第一批次采用的温度超参是根据用户指令设置,也可以是根据以往训练的经验设置。每个批次更新一次预训练语言模型的模型参数。对模型进行多批次训练为常用技术,不再赘述,本申请实施例是在多批次训练中动态调整温度超参。

梯度反向网络GRL (Gradient ReversalLayer)用于反向计算温度超参的梯度,将当前批次计算得到的损失值输入梯度反向网络,输出当前批次采用的温度超参的梯度。可学习温度超参网络是一个神经网络,将当前批次采用的温度超参以及其(“其”代表当前批次采用的温度超参)梯度输入可学习温度超参网络,输出当前批次的下一个批次采用的温度超参。可学习温度超参网络通过常见模型训练即可达到该效果。

将预训练语言模型的输出词分布除以温度超参,作为真正的输出,温度超参数值越大,生成作文多样性越高,但作文质量会有所下降,反之,作文质量较高而作文多样性较低。

上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。

下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。

图3是本公开实施例提供的一种作文生成模型训练装置的示意图。如图3所示,该作文生成模型训练装置包括:

第一训练模块301,被配置为获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;

构建模块302,被配置为获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;

第二训练模块303,被配置为基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;

第三训练模块304,被配置为基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型。

具体地:第一训练数据集、第二训练数据集、第三训练数据集均具有大量的题目要求和每个题目要求对应的作文,题目数据集具有大量的题目要求,题目要求是需要生成作文的要求,预训练语言模型理解题目要求如同人写作文之前审题;利用交叉熵损失函数对预训练语言模型进行训练,属于有监督训练,在该训练中,题目要求为训练样本,该题目要求对应的作文为训练样本的标签;利用三元组损失函数对题文距离衡量模型进行训练,属于无监督训练;利用策略梯度函数对训练后的预训练语言模型进行再训练,属于强化学习训练;预训练语言模型可以是OPT模型,英文全称是Open-Pre-trained-Transformer;题文距离衡量模型是双塔结构的BERT模型,在双塔结构中,一个分支用于处理题目要求,另一个分支用于处理题目要求对应的作文,双塔结构为是常见结构,不再赘述。

根据本公开实施例提供的技术方案,获取第一训练数据集,基于第一训练数据集中的题目要求和该题目要求对应的作文,利用交叉熵损失函数对预训练语言模型进行训练;获取题目数据集,利用训练后的预训练语言模型为题目数据集中的题目要求多次生成对应的作文,根据题目数据集中的题目要求以及预训练语言模型生成的该题目要求对应的多篇作文构建第二训练数据集和第三训练数据集;基于第二训练数据集,利用三元组损失函数对题文距离衡量模型进行训练;基于第三训练数据集,利用策略梯度函数对训练后的预训练语言模型进行再训练,将再训练后的预训练语言模型作为作文生成模型,因此,采用上述技术手段,可以解决现有技术中,模型生成的作文逻辑差以及语义不连贯的问题,进而提高生成的作文的可读性。

可选地,构建模块302还被配置为将题目数据集中的题目要求对应的作文投放到多个网上平台,以获取关于多个网上平台的用户对题目数据集中的题目要求对应作文的阅览时长;将题目数据集中的题目要求、该题目要求对应的阅览时长最长的作文以及该题目要求对应的阅览时长最短的作文组建得到第二训练数据集;将题目数据集中的题目要求以及该题目要求对应的阅览时长最长的作文组建得到第三训练数据集。

也就是说,第二训练数据集,包括:题目数据集中的题目要求、该题目要求对应的阅览时长最长的作文以及该题目要求对应的阅览时长最短的作文;第三训练数据集,包括:题目数据集中的题目要求以及该题目要求对应的阅览时长最长的作文。

三元组损失函数L,包括:

其中,a为题目数据集中题目要求的向量,p为该题目要求对应的阅览时长最长的作文的向量,n为该题目要求对应的阅览时长最短的作文的向量,d( )为距离度量函数,margin为预设向量。

比如,训练后的预训练语言模型为题目数据集中的题目要求总共三次生成对应的作文,那么该题目要求对应的三篇作文,分别记作A、B、C,A是该题目要求对应的阅览时长最长的作文,p是A的向量,C是该题目要求对应的阅览时长最短的作文,n是C的向量,B无用舍弃。

可选地,第三训练模块304还被配置为将第三训练数据集中的题目要求作为训练后的作文生成模型的输入,将该题目要求对应的阅览时长最长的作文作为训练后的作文生成模型的输出,将该题目要求对应的题文距离作为奖励,利用策略梯度函数对训练后的预训练语言模型进行再训练;其中,将该题目要求和该题目要求对应的阅览时长最长的作文输入训练后的题文距离衡量模型,输出该题目要求对应的题文距离。

策略梯度函数如下:

其中,θ为训练后的预训练语言模型的模型参数,

比如,训练后的预训练语言模型为题目数据集中的题目要求总共三次生成对应的作文,那么该题目要求对应的三篇作文,分别记作A、B、C,A是该题目要求对应的阅览时长最长的作文,该题目要求记作D。将A和D输入训练后的题文距离衡量模型,输出该题目要求对应的题文距离,记作E。利用策略梯度函数对训练后的预训练语言模型进行再训练:D作为训练后的作文生成模型的输入,A是训练后的作文生成模型的输出,将E作为奖励,更新训练后的预训练语言模型的模型参数。

可选地,第三训练模块304还被配置为或者第二训练模块303还被配置为利用预训练语言模型提取题目要求以及该题目要求对应的作文的句子级表示和题级表示;通过题目要求以及该题目要求对应的作文的句子级表示和题级表示,增强预训练语言模型对题目要求以及该题目要求对应的作文的理解,以完成对预训练语言模型的训练或者再训练。

按照逗号、句号和问号等符号,可以将一个题目要求划分为多条句子,该题目要求的题级表示是该题目要求整体的特征表示,该题目要求的句子级表示是该题目要求中每条句子的特征表示(细节特征),句子级表示是比题级表示更详细的特征表示。题目要求对应的作文的句子级表示和题级表示与题目要求的句子级表示和题级表示类似。本申请实施例根据句子级表示和题级表示(也就是在关注到整体特征时,也关注到细节特征),增强预训练语言模型对题目要求以及题目要求对应的作文的理解,可以使得预训练语言模型进行更具有逻辑和通顺的生成作为。

可选地,第二训练模块303还被配置为根据当前批次计算得到的损失值,利用梯度反向网络计算当前批次采用的温度超参的梯度,其中,当前批次计算得到的损失值是当前批次中交叉熵损失函数计算的结果,若当前批次为第一批次,则当前批次采用的温度超参是根据用户指令设置的;根据当前批次采用的温度超参以及其梯度,利用可学习温度超参网络确定当前批次的下一个批次采用的温度超参;其中,训练包括多个批次训练,温度超参用于控制预训练语言模型的输出的质量和多样性。

本申请实施例提供了一种动态温度超参,第一批次采用的温度超参是根据用户指令设置,也可以是根据以往训练的经验设置。每个批次更新一次预训练语言模型的模型参数。对模型进行多批次训练为常用技术,不再赘述,本申请实施例是在多批次训练中动态调整温度超参。

梯度反向网络GRL (Gradient ReversalLayer)用于反向计算温度超参的梯度,将当前批次计算得到的损失值输入梯度反向网络,输出当前批次采用的温度超参的梯度。可学习温度超参网络是一个神经网络,将当前批次采用的温度超参以及其(“其”代表当前批次采用的温度超参)梯度输入可学习温度超参网络,输出当前批次的下一个批次采用的温度超参。可学习温度超参网络通过常见模型训练即可达到该效果。

将预训练语言模型的输出词分布除以温度超参,作为真正的输出,温度超参数值越大,生成作文多样性越高,但作文质量会有所下降,反之,作文质量较高而作文多样性较低。

应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。

图4是本公开实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。

电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。

处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。

存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。

以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号