首页> 中国专利> 通过有限身份信息生成自我介绍的系统、方法及存储介质

通过有限身份信息生成自我介绍的系统、方法及存储介质

摘要

本发明涉及文本信息自动生成技术领域,具体为一种通过有限身份信息生成自我介绍的系统、方法及存储介质,其中系统,包括:终端,用于获取身份特征,并发送给服务器;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;服务器,用于接收身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示;其中语言模型采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。本方案能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

著录项

  • 公开/公告号CN116662960A

    专利类型发明专利

  • 公开/公告日2023-08-29

    原文格式PDF

  • 申请/专利权人 重庆珏盛教育科技有限公司;

    申请/专利号CN202310791272.7

  • 发明设计人 况锦文;王雩;罗欣;

    申请日2023-06-30

  • 分类号G06F21/31(2013.01);G06F18/214(2023.01);G06F18/24(2023.01);

  • 代理机构重庆强大凯创专利代理事务所(普通合伙) 50217;

  • 代理人赵玉乾

  • 地址 401121 重庆市渝北区金童路融创金贸时代北区9-20

  • 入库时间 2024-01-17 01:25:44

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2023-09-15

    实质审查的生效 IPC(主分类):G06F21/31 专利申请号:2023107912727 申请日:20230630

    实质审查的生效

  • 2023-08-29

    公开

    发明专利申请公布

说明书

技术领域

本发明涉及文本信息自动生成技术领域,具体为一种通过有限身份信息生成自我介绍的系统、方法及存储介质。

背景技术

自我介绍作为一种能向别人介绍自己的方式,在各类场景中经常使用,例如:面试、社交活动、演讲等,一篇好的自我介绍能让别人快速了解你,并留下深刻印象。

但是一篇好的自我介绍,往往要依靠作者的写作能力和语言组织能力,对于写作能力和语言组织能力薄弱的人,很难写出一篇好的自我介绍,因此在创造自我介绍的过程中,常会借鉴自我介绍的模板,但是依靠借鉴模板创造自我介绍存在一些问题,例如:模板是通用性的没有充分考虑到每个人的个人特征,创作出来的自我介绍内容缺乏针对性和真实性,不贴合个人特征,且无法覆盖各种应用场景,使得用户在不同的应用场景下要寻找不同的模板,进行自我介绍的介绍文本的创造,耗费用户的时间和精力。

因此现在急需一种通过有限身份信息生成自我介绍的系统、方法及存储介质,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

发明内容

本发明的目的之一在于提供通过有限身份信息生成自我介绍的系统,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

本发明提供的基础方案一:通过有限身份信息生成自我介绍的系统,包括:终端和服务器;

终端,用于获取身份特征,并发送给服务器;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;

服务器,用于接收身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示;其中语言模型采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。

进一步,所述语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;

Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;

输出层,用于根据关联生成介绍文本作,并输出。

进一步,所述服务器,还用于根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果,并根据评分结果对语言模型输出的介绍文本进行筛选和调整,将筛选和调整后的介绍文本及其评分结果,发送给终端。

进一步,所述评分机制为自定义的评分函数;

所述评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果。

本方案的有益效果:用户通过终端输入自己的身份特征,终端将身份特征发送给服务器;服务器,将接收到的身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示,从而用户无需自己寻找模板创作自我介绍的介绍文本;且输入的身份特征包括姓名、身份、职务、愿景和场景中一种或多种,语言模型会以身份特征转化的向量作为语言模型的输入,并通过训练样本集训练学习的向量及其介绍文本样本之间的关联,生成介绍文本作为输出,生成的介绍文本贴合用户的个人特征,并具备针对性和真实性;在不同应用场景下,本方案都能自动且高效的生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

并且用户只需提供有限的身份信息(身份特征),即可获得贴合个人特点的自我介绍文字,根据不同的身份、职务、愿景和场景,能生成符合当前身份、职务、愿景和场景的自我介绍,便于用户当前使用,提高了使用的便捷性。

此外,服务器还设置了对语言模型的输出进行评分的评分机制,通过评分函数对语言模型输出的介绍文本的预设指标进行计算,获取各介绍文本中预设指标的得分,作为评分结果,根据评分结果对语言模型输出的介绍文本进行筛选和调整,从而提高语言模型输出的介绍文本的质量和准确性,使得生成的介绍文本更符合要求。

本发明的目的之二在于提供通过有限身份信息生成自我介绍的方法,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

本发明提供基础方案二:通过有限身份信息生成自我介绍的方法,包括:

S1、获取身份特征;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;

S2、将身份特征转化为向量;

S3、将向量输入预设的语言模型,生成介绍文本;其中语言模型,采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。

进一步,所述语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;

Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;

输出层,用于根据关联生成介绍文本作,并输出。

进一步,还包括:

S4、根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果;

S5、根据评分结果对语言模型输出的介绍文本进行筛选和调整。

进一步,所述评分机制为自定义的评分函数;

所述评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果。

本方案的有益效果:通过获取用户的身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,从而用户无需自己寻找模板创作自我介绍的介绍文本;且获取的身份特征包括姓名、身份、职务、愿景和场景中一种或多种,语言模型会以身份特征转化的向量作为语言模型的输入,并通过训练样本集训练学习的向量及其介绍文本样本之间的关联,生成介绍文本作为输出,生成的介绍文本贴合用户的个人特征,并具备针对性和真实性;在不同应用场景下,本方案都能自动且高效的生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

并且用户只需提供有限的身份信息(身份特征),即可获得贴合个人特点的自我介绍文字,根据不同的身份、职务、愿景和场景,能生成符合当前身份、职务、愿景和场景的自我介绍,便于用户当前使用,提高了使用的便捷性。

此外,本方案还设置了对语言模型的输出进行评分的评分机制,通过评分函数对语言模型输出的介绍文本的预设指标进行计算,获取各介绍文本中预设指标的得分,作为评分结果,根据评分结果对语言模型输出的介绍文本进行筛选和调整,从而提高语言模型输出的介绍文本的质量和准确性,使得生成的介绍文本更符合要求。

本发明的目的之三在于提供一种通过有限身份信息生成自我介绍的设备,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

本发明提供基础方案三:一种通过有限身份信息生成自我介绍的设备,包括存储介质和处理器,所述存储介质中存储有计算机程序,所述处理器执行所述计算机程序时,实现上述的通过有限身份信息生成自我介绍的方法的步骤。

基础方案三的有益效果:本设备能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

本发明的目的之四在于提供一种存储介质,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

本发明提供基础方案四:一种存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的通过有限身份信息生成自我介绍的方法的步骤。

基础方案四的有益效果:存储介质存储有计算机程序,计算机程序被处理器执行时实现上述的通过有限身份信息生成自我介绍的方法的步骤,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力,便于通过有限身份信息生成自我介绍的方法的应用。

附图说明

图1为本发明通过有限身份信息生成自我介绍的系统实施例一的逻辑框图;

图2为本发明通过有限身份信息生成自我介绍的方法实施例二的流程示意图;

图3为本发明通过有限身份信息生成自我介绍的设备实施例中的结构示意图。

具体实施方式

下面通过具体实施方式进一步详细说明:

实施例一

本实施例基本如附图1所示:通过有限身份信息生成自我介绍的系统,包括:终端和服务器;

终端,用于获取身份特征,并发送给服务器;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;具体地,终端包括但不限于:手机、平板和电脑;用户通过终端输入身份特征信息,终端将身份特征,发送给服务器;

服务器,用于接收身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示;其中语言模型采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;输出层,用于根据关联生成介绍文本作,并输出。

本实施例中对语言模型的构建训练,具体包括:服务器获取介绍文本样本,对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,并提取身份特征;具体地,服务器通过网络爬虫从互联网收集介绍文本样本,或通过人工方式从各种来源收集介绍文本样本,并通过终端输入,发送到服务器;再对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,例如:家庭住址,身份证号等,以保护用户的个人隐私;最后在介绍文本样本中提取身份特征;

将身份特征转化为向量;具体地,通过预训练的词嵌入模型(如:Word2Vec或GloVe)或自定义的嵌入层,将身份特征映射到一个高维向量空间中,转化为向量,以便语言模型能够处理和学习身份特征;

构建包含向量及其对应的介绍文本样本的训练数据集;训练数据集中的每个训练样本都包含向量(身份特征)及其对应的介绍文本样本;训练数据集可以提供丰富的训练样本,以让语言模型学习身份特征与介绍文本之间的关联;

构建语言模型,并采用训练数据集对语言模型进行训练;其中向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,本实施例中使用深度学习框架构(如:TensorFlow或PyTorch)建语言模型。向量及其介绍文本样本之间的关联,由前期对所有的介绍文本样本进行逐个拆解,拆解成65个关键要素,并通过排列组合形成介绍文本的表达逻辑和方法,向量及其介绍文本样本之间的关联为向量和65个关键要素的关联,通过向量获取对应的关键要素进行排列组合形成介绍文本。

服务器,还用于根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果,并根据评分结果对语言模型输出的介绍文本进行筛选和调整,将筛选和调整后的介绍文本及其评分结果,发送给终端。其中评分机制为自定义的评分函数;评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果;其中预设指标根据需求进行设置,本实施例中设置了六个预设指标,包括:字数标准、结构完整度、姓名解释评分、内容准确度、愿景续写评分和整体流程度;评分函数中分数范围为0-10分,其中10分为满分;

本实施例中评分标准:分数范围为0-10分10分为满分,

字数标准,在200-400字范围以内,若在此范围外,扣除2分;

结构完整度,包含设置的每项身份特征,少一项扣除1分;

姓名解释,对姓名这一身份特征的解释是否合理应用姓名解释的关键要素,表达是否流程且具有记忆点,若否,则扣1分;

内容准确度,是否存在逻辑性错误和常识性错误,若是,则扣1分;

愿景续写评分,是否对愿景这一身份特征进行拆解并和其他身份特征(如:姓名和身份)进行关联,若否,则扣1分;

整体流程度,生成的介绍文本的整体语言是否流畅,表达逻辑是否清晰,若否,则扣一份;

总分在6分以下为废稿,6-7分为合格,8分以上为优秀;根据评分结果对语言模型进行调整,可以为删除废稿,对合格和优秀的介绍文本进行排序输出。

具体实施过程:用户通过终端输入自己的身份特征,终端将身份特征发送给服务器,例如:一名用户需要在社交场景进行自我介绍,该用户只需要提供他的姓名(例如:张三)、身份(例如:软件工程师)、职务(例如:前端开发)、愿景(例如:希望成为一名优秀的全栈工程师)、场景(例如:职场社交);服务器,将接收到的身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示,从而用户无需自己寻找模板创作自我介绍的介绍文本;且输入的身份特征包括姓名、身份、职务、愿景和场景中一种或多种,语言模型会以身份特征转化的向量作为语言模型的输入,并通过训练样本集训练学习的向量及其介绍文本样本之间的关联,生成介绍文本作为输出,生成的介绍文本贴合用户的个人特征,并具备针对性和真实性;在不同应用场景下,本方案都能自动且高效的生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

实施例二

本实施例基本如附图2所示:通过有限身份信息生成自我介绍的方法,包括:

S1、获取身份特征;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;其中获取身份特征的方式可以为用户通过设置的终端输入身份特征信息;

S2、将身份特征转化为向量;具体地,通过预训练的词嵌入模型(如:Word2Vec或GloVe)或自定义的嵌入层,将身份特征映射到一个高维向量空间中,转化为向量;

S3、将向量输入预设的语言模型,生成介绍文本;其中语言模型,采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,本实施例中语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;输出层,用于根据关联生成介绍文本作,并输出。

本实施例中对语言模型的构建训练,具体包括:获取介绍文本样本,对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,并提取身份特征;具体地,通过网络爬虫从互联网收集介绍文本样本,或通过人工方式从各种来源收集介绍文本样本;再对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,例如:家庭住址,身份证号等,以保护用户的个人隐私;最后在介绍文本样本中提取身份特征;

将身份特征转化为向量;具体地,通过预训练的词嵌入模型(如:Word2Vec或GloVe)或自定义的嵌入层,将身份特征映射到一个高维向量空间中,转化为向量,以便语言模型能够处理和学习身份特征;

构建包含向量及其对应的介绍文本样本的训练数据集;训练数据集中的每个训练样本都包含向量(身份特征)及其对应的介绍文本样本;训练数据集可以提供丰富的训练样本,以让语言模型学习身份特征与介绍文本之间的关联;

构建语言模型,并采用训练数据集对语言模型进行训练;其中向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,本实施例中使用深度学习框架构(如:TensorFlow或PyTorch)建语言模型。向量及其介绍文本样本之间的关联,由前期对所有的介绍文本样本进行逐个拆解,拆解成65个关键要素,并通过排列组合形成介绍文本的表达逻辑和方法,向量及其介绍文本样本之间的关联为向量和65个关键要素的关联,通过向量获取对应的关键要素进行排列组合形成介绍文本。

S4、根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果;其中评分机制为自定义的评分函数;评分函数根据语言模型输出的自我介绍的预设指标来计算各自我介绍的得分,作为评分结果;

S5、根据评分结果对语言模型输出的介绍文本进行筛选和调整;

上述预设指标根据需求进行设置,本实施例中设置了六个预设指标,包括:字数标准、结构完整度、姓名解释评分、内容准确度、愿景续写评分和整体流畅度;评分函数中分数范围为0-10分,其中10分为满分;

本实施例中评分标准:分数范围为0-10分10分为满分,

字数标准,在200-400字范围以内,若在此范围外,扣除2分;

结构完整度,包含设置的每项身份特征,少一项扣除1分;

姓名解释,对姓名这一身份特征的解释是否合理应用姓名解释的关键要素,表达是否流程且具有记忆点,若否,则扣1分;具体地,可采用人工智能或者专家评价,本实施例中采用人工智能设置分类算法,对姓名这一身份特征的解释是否合理应用姓名解释的关键要素,表达是否流程且具有记忆点进行分类,从而对姓名解释进行评分;对于愿景续写评分和整体流畅度采用相同处理方式;

内容准确度,是否存在逻辑性错误和常识性错误,若是,则扣1分;

愿景续写评分,是否对愿景这一身份特征进行拆解并和其他身份特征(如:姓名和身份)进行关联,若否,则扣1分;

整体流畅度,生成的介绍文本的整体语言是否流畅,表达逻辑是否清晰,若否,则扣一份;

总分在6分以下为废稿,6-7分为合格,8分以上为优秀;根据评分结果对语言模型进行调整,可以为删除废稿,对合格和优秀的介绍文本进行排序输出。

如图3所示,本实施例还提供一种通过有限身份信息生成自我介绍的设备,该设备包括:至少一个处理器,至少一个存储介质和至少一个总线,本实施例中,还包括至少一个通信接口。其中,总线用于实现这些组件直接的连接通信,通信接口用于与其他节点设备进行信令或数据的通信,存储介质存储有处理器可执行的机器可读指令。当设备运行时,处理器与存储介质之间通过总线通信,机器可读指令被处理器执行并实现上述的通过有限身份信息生成自我介绍的方法的步骤。

本实施例还提供一种存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的通过有限身份信息生成自我介绍的方法的步骤。

上述介绍文本方法如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。

以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号