首页> 中国专利> 在线教育师生智能匹配方法、装置及存储介质

在线教育师生智能匹配方法、装置及存储介质

摘要

本发明涉及人工智能领域,应用于智慧城市的智慧教育领域中,尤其涉及一种在线教育师生智能匹配方法、装置及存储介质。本发明的在线教育师生智能匹配方法、装置及存储介质,基于学生课后对老师的文本评价提取标签词,对标签词进行情感分类以生成学生的第一用户画像,对标签词进行存在性分类以生成老师的第二用户画像,最后根据所述学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值;通过上述方式,无需老师和学生分别进行自我评估,降低了人力成本;学生课后的文本评价比主观的自我评价更加真实准确,增加匹配的精确性,随着文本评价数据的积累,老师和学生的画像会逐渐完善和具体化,精确性还会逐步升高。

著录项

  • 公开/公告号CN112559749A

    专利类型发明专利

  • 公开/公告日2021-03-26

    原文格式PDF

  • 申请/专利权人 深圳赛安特技术服务有限公司;

    申请/专利号CN202011508989.9

  • 发明设计人 吴悠;

    申请日2020-12-18

  • 分类号G06F16/35(20190101);G06F16/335(20190101);G06F40/284(20200101);G06F40/289(20200101);G06Q10/10(20120101);G06Q50/20(20120101);

  • 代理机构44374 深圳国新南方知识产权代理有限公司;

  • 代理人周纯

  • 地址 518000 广东省深圳市前海深港合作区前湾一路1号A栋201室(入驻深圳市前海商务秘书有限公司)

  • 入库时间 2023-06-19 10:24:22

说明书

【技术领域】

本发明涉及人工智能领域,尤其涉及一种在线教育师生智能匹配方法、装置及存储介质。

【背景技术】

随着互联网和信息技术的发展,在线教育近年来发生着重大变化,教育资源的利用率以及教学质量都有大幅度提升。在线一对一辅导、直播教学、在线辅导等教学方式极大的改变了人们对教育方式的认知。教学对于老师和学生而言,是一个相互的过程。某些老师的教学方式,可能对一些同学很有效,但是对于另一些同学却效果不佳,如何去精准匹配最适合学生的老师,对于提升教学质量有着重大意义。

现有技术的匹配方法,流程都比较繁琐,需要教师对自己的性格、学科特征进行评估打分,学生也需要做一些专门的测试来得到自己的画像,并且,均为主观评价,导致匹配的精确性有待提高。

因此,有必要提供一种新的在线教育师生智能匹配方法。

【发明内容】

本发明的目的在于提供一种在线教育师生智能匹配方法、装置及存储介质,解决现有技术中流程繁琐及精确性不高的技术问题。

本发明的技术方案如下:提供一种在线教育师生智能匹配方法,包括:

获取学生对老师的文本评价,从所述文本评价中提取标签词,其中,所述标签词为用于表征老师上课特点的词汇;

基于所述文本评价对所述标签词进行情感分类;

针对每个学生,根据指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果生成所述学生的第一用户画像;

基于所述文本评价对所述标签词进行存在性分类,以判断所述文本评价指向的老师是否具有所述标签词表征的上课特点,其中,当所述老师具有所述标签词表征的上课特点时,存在性分类结果为存在;

针对每个老师,根据指向所述老师的所述文本评价中存在性分类结果为存在的所述标签词生成所述老师的第二用户画像;

针对当前学生,根据所述当前学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值,根据所述匹配值生成所述当前学生的匹配结果。

优选地,所述从所述文本评价中提取标签词,包括:

对所述文本评价进行分词处理,得到所述文本评价的分词词语;

根据预先确定的词语与词向量的对应关系,确定所述文本评价中每个分词词语对应的词向量,以生成所述文本评价的词向量矩阵;

将所述文本评价的词向量矩阵输入至长短期记忆网络模型中,提取所述文本评价中的标签词,其中,所述长短期记忆网络模型用于识别所述标签词。

优选地,所述基于所述文本评价对所述标签词进行情感分类,包括:

获取提取出所述标签词的所述文本评价;

将所述文本评价输入至第一BERT模型中,对所述标签词进行情感分类,以获取所述标签词的情感分类结果;

所述在线教育师生智能匹配方法还包括:

将所述学生的第一用户画像以及所述老师的第二用户画像上传至区块链中,以使得所述区块链对所述学生的第一用户画像以及所述老师的第二用户画像进行加密存储。

优选地,所述基于所述文本评价对所述标签词进行存在性分类,包括:

获取提取出所述标签词的所述文本评价;

将所述文本评价输入至第二BERT模型中,对所述标签词进行存在性分类,以获取所述标签词的存在性分类结果。

优选地,所述第二BERT模型是通过如下步骤获取的:

构建第二BERT模型,对所述第二BERT模型进行初始化,以确定所述第二BERT模型的初始参数;

获取提取出所述标签词的所述文本评价,对所述标签词进行存在性分类标注,以获取第二训练样本集合,其中,所述存在性分类的类别包括存在和不存在;

根据所述第二BERT模型的初始参数,通过所述第二BERT模型对所述第二训练样本集合进行处理,确定所述第二BERT模型的更新参数;

根据所述第二BERT模型的更新参数,利用所述第二训练样本集合对所述第二BERT模型的参数进行迭代更新,以实现通过所述第二BERT模型对对所述标签词进行存在性分类。

优选地,所述从所述文本评价中提取标签词之后,还包括:

根据预设聚类算法对所述标签词进行聚类,得到多个标签组,每个标签组对应一类标签词;

根据指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果生成所述学生的第一用户画像,包括:

获取指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果;

将所述标签词根据对应的标签组进行合并,得到指向所述学生的至少一个标签组;

将所述标签词的情感分类结果作为对应标签组的情感分类结果,将所述标签组以及所述标签组的情感分类结果作为所述学生的第一用户画像。

优选地,所述情感分类的类别包括正面极性和负面极性;

所述根据所述当前学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值,根据所述匹配值生成所述当前学生的匹配结果,包括:

获取当前学生的第一用户画像中情感分类结果为正面极性的标签组;

针对每个正面极性的标签组,获取所述老师的第二用户画像中与所述标签组匹配的标签词的第一数量,根据所有正面极性的标签组的所述第一数量计算第一得分;

获取当前学生的第一用户画像中情感分类结果为负面极性的标签组;

针对每个负面极性的标签组,获取所述老师的第二用户画像中与所述标签组匹配的标签词的第二数量,根据所有负面极性的标签组的所述第二数量计算第二得分;

将所述第一得分与所述第二得分的差值作为所述老师与所述当前学生的匹配值;

将所述老师与所述当前学生的匹配值按照从大到小进行排序,提取匹配值排序前N位的N个老师作为所述匹配结果,所述N为大于或等于1的整数。

本发明的另一技术方案如下:提供一种在线教育师生智能匹配装置,包括:

标签词识别模块,用于获取学生对老师的文本评价,从所述文本评价中提取标签词,其中,所述标签词为用于表征老师上课特点的词汇;

情感分类模块,用于基于所述文本评价对所述标签词进行情感分类;

学生画像生成模块,用于针对每个学生,根据指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果生成所述学生的第一用户画像;

存在性分类模块,用于基于所述文本评价对所述标签词进行存在性分类,以判断所述文本评价指向的老师是否具有所述标签词表征的上课特点,其中,当所述老师具有所述标签词表征的上课特点时,存在性分类结果为存在;

老师画像生成模块,用于针对每个老师,根据指向所述老师的所述文本评价中存在性分类结果为存在的所述标签词生成所述老师的第二用户画像;

匹配模块,用于针对当前学生,根据所述当前学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值,根据所述匹配值生成所述当前学生的匹配结果。

本发明的另一技术方案如下:提供一种在线教育师生智能匹配装置,所述装置包括处理器、以及与所述处理器耦接的存储器,所述存储器存储有用于实现上述的在线教育师生智能匹配方法的程序指令;所述处理器用于执行所述存储器存储的所述程序指令以进行在线教育师生智能匹配。

本发明的另一技术方案如下:提供一种存储介质,所述存储介质内存储有能够实现上述的在线教育师生智能匹配方法的程序指令。

本发明的有益效果在于:本发明的在线教育师生智能匹配方法、装置及存储介质,基于学生课后对老师的文本评价提取标签词,对标签词进行情感分类以生成学生的第一用户画像,对标签词进行存在性分类以生成老师的第二用户画像,最后根据所述学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值;通过上述方式,仅仅利用学生课后的文本评价就分别建立了老师和学生的画像,无需老师和学生分别进行繁琐的自我评估,降低了人力成本;学生课后的文本评价基于对课程的真实体验,客观的反映了老师的特点和学生的实际需求,比主观的自我评价更加真实准确,增加匹配的精确性,并且,随着文本评价数据的积累,老师和学生的画像会逐渐完善和具体化,精确性还会逐步升高。

【附图说明】

图1为本发明第一实施例的在线教育师生智能匹配方法的流程图;

图2为本发明第二实施例的在线教育师生智能匹配方法的流程图;

图3为本发明第三实施例的在线教育师生智能匹配装置的结构示意图;

图4为本发明第四实施例的在线教育师生智能匹配装置的结构示意图;

图5为本发明第五实施例的存储介质的结构示意图。

【具体实施方式】

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。

在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。

对本发明实施例进行进一步详细说明之前,对本发明实施例中涉及的名词和术语进行说明,本发明实施例中涉及的名词和术语适用于如下的解释。

长短期记忆网络模型(LSTM Long Short-Term Memory),是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。

双向注意力神经网络模型(BERT Bidirectional Encoder Representationsfrom Transformers),一种利用海量文本的语言模型训练方法,该方法被广泛用于多种自然语言处理任务,如文本分类、文本匹配、机器阅读理解等。

编码器-解码器结构:机器文本处理技术常用的网络结构。由编码器和解码器两部分组成,编码器将输入的文本转换为一系列能够表达输入文本特征的上下文向量,解码器接收编码器输出的结果作为自己的输入,输出对应的另一种语言的文本序列。

[CLS]标记是指:BERT模型在分词中所添加的分类标记。

[SEP]标记是指:BERT模型在句子结尾添加的句子结束标记。

图1是本发明第一实施例的在线教育师生智能匹配方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该在线教育师生智能匹配方法包括步骤:

S101,获取学生对老师的文本评价,从所述文本评价中提取标签词,其中,所述标签词为用于表征老师上课特点的词汇。

对于在线教育系统,当老师给学生上完课程后,学生会根据上课感受给老师一条文本评价。例如,“老师的声音非常好听,但是讲课速度太快,我听不懂”。

在步骤S101中,提取所述文本评价中能够表征老师上课特点的标签词,例如,上述文本评价中的“声音好听”和“讲课速度快”。又如“耐心”、“专注”或“讲课易懂”等。

在一个可选的实施方式中,可以利用长短期记忆网络模型实现标签词的提取,具体包括如下步骤:首先,对所述文本评价进行分词处理,得到所述文本评价的分词词语;然后,根据预先确定的词语与词向量的对应关系,确定所述文本评价中每个分词词语对应的词向量,以生成所述文本评价的词向量矩阵;最后,将所述文本评价的词向量矩阵输入至长短期记忆网络模型中,得到所述文本评价中每个分词词语的类别,以提取所述文本评价中的标签词,其中,所述类别包括为标签词和非标签词。进一步地,可以利用word2vec模型得到所述分词词语的词向量。

其中长短期记忆网络模型(LSTM)由三个门组成,“遗忘门,输入门,输出门”,遗忘门决定让那些信息通过一个单元(cell,也可以称为细胞),输入门决定让多少新的信息加入到单元(cell),输出门决定输出什么值。具体地,LSTM在时刻t接收前一时刻的信息时,细胞(LSTM的神经元)首先要决定遗忘掉部分信息,遗忘门控制着遗忘的参数。该门的输入是当前时刻的输入x

f

其中ft是遗忘门的循环权重,即用来表示在时间t步,当前网络要遗忘多少信息;σ是激活函数(sigmoid函数),用于把值的范围控制在0到1之间;W

在丢弃无用的信息之后,细胞需要决定吸收哪些新输入的信息,输入门的公式如下所示:

i

其中i

当前时刻细胞候选项:

C

对细胞状态进行更新,得到新的细胞状态,由旧的细胞状态选择性遗忘和候选细胞状态计算得来:

C

最后由输出门发挥作用,决定当前时刻隐藏层的输出向量h

o

其中,o

当前时刻隐藏层的输出是激活后的细胞状态经由输出门向外输出:

h

其中,o

其中,W

在一个可选的实施方式中,用于识别标签词的长短期记忆网络模型的训练过程如下:

S1011,对文本评价中的标签词进行标注,利用标注后的标签词生成标签词词向量训练素材。具体地,对文本评价进行分词,对于其中的标签词,将第一个字标注为起始位置,最后一个字标注为结束位置,中间字标注为中间位置,再将标注后的标签词词向量化,例如可以利用word2vec模型实现。

S1012,初始化LSTM模型,将所得标签词向量训练素材输入至当前LSTM模型中进行训练,得到每个标签词向量训练素材的前向运行预测值,计算预测值与标签词向量训练素材的实际类别之间的差距。具体地,所述LSTM模型由存储在计算机存储介质中的算法库中的一系列与LSTM运算相关的算法函数所组成,在使用这一系列与LSTM运算相关的算法函数进行LSTM运算时,需要预先对这些算法函数中的参数进行确定,以使得LSTM运算针对不同的目的达到不同的效果,本实施例的目的是对LSTM模型进行训练,以使得LSTM模型单元能够用于高精度地识别标签词,所述对LSTM模型进行训练,即是确定合适的与LSTM运算相关的算法函数的各个参数。在并不知道合适的参数的时候,可以对所述相关的函数的参数进行一个随机的初始化赋值。随后,将标签词向量训练素材中的每一个向量,按照从前到后的顺序,依次通过当前LSTM模型进行运算,得到对应数量个输出量,所述输出量也为与标签词向量训练素材中的每一个向量相同维数的向量。随后,将得到的所有输出量输入CRF进行运算,得到每一个标签词的预测值,记为该标签词的前向运算预测值,然后与实际类别进行衡量得到损失值,进一步地,可以设置“为标签词”是一个类别,“非标签词”是一个类别。

S1013,判断所述差距是否持续震荡下降,若是,则执行如下步骤:通过链式法则,得到当前LSTM模型中每个参数应该变化的数值大小;通过梯度下降优化算法,得到当前LSTM模型中每个参数的变化方向和变化值,进而修正LSTM模型中每个参数;若否,则训练结束,得到标签词识别模型。

S102,基于所述文本评价对所述标签词进行情感分类。

在步骤S101已经识别出标签词的基础上,对识别出的标签词进行情感分类,情感分类的类别可以包括正面极性和负面极性。在步骤S102中,通过情感分类能够分析出学生喜欢或者讨厌该标签词,例如学生对老师的评价是:“老师你声音非常好听!”,那么可以知道该学生喜欢的标签为“声音非常好听”;如果评价是“老师讲课速度太快,我听不懂”,那么可以知道该学生讨厌的标签为“讲课速度太快”。

在本实施例中,利用第一BERT模型进行情感分类,具体地,将所述文本评价输入至第一BERT模型中,对所述标签词进行情感分类,以获取所述标签词的情感分类结果。

在本实施例中,第一BERT模型包括输入层、语义提取层、线性函数层、池化层和全连接层。在本实施例中,语义提取层是以Transformer编码器为基础单元组成的多层双向解码器。Transformer编码器包括字向量与位置编码、注意力机制、残差连接与层标准化和前馈四部分。

在本实施例中,可以采用句子对任务的方式,对第一BERT模型进行训练,通过对训练数据进行情感分类学习,在真实数据中识别出标签词的情感分类类别。

对于较短的文本评价,文本评价中可能只包含一个标签词,将整个文本评价所有的分句均作为标签词所在的句子。

对于较长的文本评价,文本评价中可能包含多个标签词,可以进一步的针对每个标签词获取该标签词所在的句子,具体地,基于上下文关系,根据所述标签词的位置从标注后的所述文本评价中截取所述标签词所在的句子,其中,所述标签词所在的句子包括所述标签词所在的第一分句以及与所述第一分句具有上下文关系的邻近分句。例如,“老师讲课内容丰富,我很爱听,但是今天我约了朋友吃饭,还是决定提前结束”,上述文本评价中有一个标签词“内容丰富”,标签词所在分句为“老师讲课内容丰富”,下一分句“我很爱听”与标签词所在分句具有上下文关系,“但是今天我约了朋友吃饭”以及“还是决定提前结束”与标签词所在分句不具有上下文关系,因此,截取“老师讲课内容丰富,我很爱听”作为标签词所在的句子,进行情感分类以及后续的存在性分类。

第一BERT模型的训练过程如下:

S1021,构建第一BERT模型,对所述第一BERT模型进行初始化,以确定所述第一BERT模型的初始参数。

S1022,获取提取出所述标签词的所述文本评价,对所述标签词进行存在性分类标注,基于上下文关系,根据所述标签词的位置从标注后的所述文本评价中截取所述标签词所在的句子,以获取第一训练样本集合,其中,所述存在性分类的类别包括存在和不存在。

S1023,利用输入层对从文本评价中截取的标签词所在的句子进行编码,将标签词所在句子进行分词,在句子首部和尾部分别添加[CLS]标记和[SEP]标记,句子s分词后得到句子Sr=[CLS,x1,x2,……,标签词ti,xm-1,xm,SEP]。

S1024,将分词后的句子Sr输入至语义提取层中,句子Sr由语义提取层进行语义提取,输出标签词ti编码向量tiVec至池化层。

S1025,池化层将标签词ti编码向量tiVec进行最大池化处理后得到标签词ti的特征向量V,将特征向量V输出至全连接层。

S1026,全连接层输出结果至softmax函数中进行情感分类。

S1027,利用交叉熵(CrossEntropy)构建损失函数,根据所述损失函数计算损失值(Loss),根据所述损失值对第一BERT模型的参数进行迭代更新,不断迭代步骤S1024至步骤S1026,直至所述第一BERT模型的损失函数满足对应的收敛条件。

在一个可选的实施方式中,当所述损失函数的损失值在至少两个连续迭代过程中趋于稳定时,满足收敛条件,结束第一BERT模型的训练过程,得到用于对标签词进行情感分类的第一BERT模型。

S103,针对每个学生,根据指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果生成所述学生的第一用户画像。

在步骤S103中,指向同一学生的文本评价均为该学生自己基于上课感受做出的,将该学生做出的所有文本评价中的标签词及其情感分类进行汇总,生成该学生的第一用户画像。

具体地,学生的第一用户画像举例如下:

A学生画像:1、喜欢“声音好听”;2、喜欢“耐心”;3、讨厌“讲课声音小”;4、喜欢“节奏感强”。

B学生画像:1、喜欢“耐心”;2、讨厌“课堂纪律差”;3、喜欢“老师颜值高”。

进一步地,在步骤S01之后、步骤S103之前还包括:S101’,根据预设聚类算法对所述标签词进行聚类,得到多个标签组,每个标签组对应一类标签词。上述预设聚类算法可以包括但不限于K-Means和DBSCAN。例如,经过聚类,【声音好听/声音听着舒服/声音悦耳/讲课声音动听】属于一类,【耐心/讲课耐心/沉着/稳重】属于一类。

于是,在步骤S103中,学生的第一用户画像可以按照标签组生成,具体地,首先,获取指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果;然后,将所述标签词根据对应的标签组进行合并,得到指向所述学生的至少一个标签组;最后,将所述标签词的情感分类结果作为对应标签组的情感分类结果,将所述标签组以及所述标签组的情感分类结果作为所述学生的第一用户画像。

S104,基于所述文本评价对所述标签词进行存在性分类,以判断所述文本评价指向的老师是否具有所述标签词表征的上课特点,其中,当所述老师具有所述标签词表征的上课特点时,存在性分类结果为存在。

在步骤S101已经识别出标签词的基础上,对识别出的标签词进行存在性分类,存在性分类的类别可以包括存在和不存在。在步骤S103中,通过存在性分类能够分析出老师是否具有该标签词表征的特点。举例:“老师你能不能讲课声音大点,我都听不清”,那老师不具备“讲课声音大点”这个标签词表征的特点;另一个例子“老师你讲课声音很大,我听得很清晰”,那老师具备“讲课声音很大”这个标签词表征的特点。

在本实施例中,利用第二BERT模型进行存在性分类,具体地,获取提取出所述标签词的所述文本评价;将所述文本评价输入至第二BERT模型中,对所述标签词进行存在性分类,以获取所述标签词的存在性分类结果。

在本实施例中,也可以采用句子对任务的方式,对第二BERT模型进行训练,通过对训练数据进行存在性分类学习,在真实数据中识别出标签词的存在性分类类别。

在本实施例中,第二BERT模型是通过如下步骤获取的:

S1041,构建第二BERT模型,对所述第二BERT模型进行初始化,以确定所述第二BERT模型的初始参数。

S1042,获取提取出所述标签词的所述文本评价,对所述标签词进行存在性分类标注,以获取第二训练样本集合,其中,所述存在性分类的类别包括存在和不存在。当然,与步骤S102中类似,可以基于上下文关系,根据所述标签词的位置从标注后的所述文本评价中截取所述标签词所在的句子,利用标签词所在的句子构建第二训练样本集合。

S1043,根据所述第二BERT模型的初始参数,通过所述第二BERT模型对所述第二训练样本集合进行处理,确定所述第二BERT模型的更新参数。

S1044,根据所述第二BERT模型的更新参数,利用所述第二训练样本集合对所述第二BERT模型的参数进行迭代更新,以实现通过所述第二BERT模型对对所述标签词进行存在性分类。具体地,在步骤S1044中,利用输入层对从文本评价中截取的标签词所在的句子进行编码,将标签词所在句子进行分词,在句子首部和尾部分别添加[CLS]标记和[SEP]标记,句子s’分词后得到句子Sr’=[CLS,x1,x2,……,标签词tj,xk-1,xk,SEP]。将分词后的句子Sr’输入至语义提取层中,句子Sr’由语义提取层进行语义提取,输出标签词tj编码向量tjVec至池化层。池化层将标签词tj编码向量tjVec进行最大池化处理后得到标签词tj的特征向量V’,将特征向量V’输出至全连接层。全连接层输出结果至softmax函数中进行存在性分类。利用交叉熵(CrossEntropy)构建损失函数,根据所述损失函数计算损失值(Loss),根据所述损失值对第二BERT模型的参数进行迭代更新,不断迭代上述步骤,直至所述第二BERT模型的损失函数满足对应的收敛条件。

S105,针对每个老师,根据指向所述老师的所述文本评价中存在性分类结果为存在的所述标签词生成所述老师的第二用户画像。

在步骤S105中,指向同一老师的文本评价为不同学生基于该老师的上课感受做出的,能够反映出该老师上课的特点。将多个学生对该老师做出的文本评价中存在性分类类别为存在的标签词进行汇总,生成该老师的第二用户画像。

具体地,老师的第二用户画像举例如下:

A老师画像:1、耐心;2、声音好听;3、讲课耐心;

B老师画像:1、节奏掌控好;2、课堂纪律好;3、普通话标准。

在本实施例中,老师的第二用户画像中可以包含属于同一标签组的多个标签词,例如,例如:老师画像【声音动听,声音悦耳,课堂纪律不好】,其中,【声音好听/声音听着舒服/声音悦耳/讲课声音动听】属于一类。

S106,针对当前学生,根据所述当前学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值,根据所述匹配值生成所述当前学生的匹配结果。

在步骤S106中,获取当前学生的第一用户画像中情感分类结果为正面极性的标签组;针对每个正面极性的标签组,获取所述老师的第二用户画像中与所述标签组匹配的标签词的第一数量,根据所有正面极性的标签组的所述第一数量计算第一得分;获取当前学生的第一用户画像中情感分类结果为负面极性的标签组;针对每个负面极性的标签组,获取所述老师的第二用户画像中与所述标签组匹配的标签词的第二数量,根据所有负面极性的标签组的所述第二数量计算第二得分;将所述第一得分与所述第二得分的差值作为所述老师与所述当前学生的匹配值;将所述老师与所述当前学生的匹配值按照从大到小进行排序,提取匹配值排序前N位的N个老师作为所述匹配结果,所述N为大于或等于1的整数。

具体地,对于学生的每个正面极性的标签组,将该正面极性的标签组在老师的多个存在的标签词中进行匹配,每匹配上一个,加1分,假如匹配上n个,加n分;对于学生的每个负面极性的标签组,将该负面极性的标签组在老师的多个存在的标签词中进行匹配,每匹配上一个,减1分,假如匹配上m个,减m分;匹配值为n-m。

更具体地,当前学生的第一用户画像【喜欢“声音好听”,喜欢“讲课耐心”,讨厌“课堂纪律差”】,老师的第二用户画像【声音动听,声音悦耳,课堂纪律不好】,其中,声音动听和声音悦耳被聚为一类,于是,学生的第一用户画像中的正面极性的标签组“声音好听”匹配上老师画像中的“声音动听”和“声音悦耳”两个标签词,得分+2;学生的第一用户画像中的负面极性的标签组“课堂纪律差”匹配上老师画像中的“课堂纪律不好”一个标签词,得分-1;所以最终匹配值为1。根据当前学生和每一个老师的匹配值,可以给学生推荐最佳匹配老师,也可以推荐匹配值最高的前三位让学生自己选择。

在本实施例中,仅仅利用学生课后的文本评价就分别建立了老师和学生的画像,无需老师和学生分别进行繁琐的自我评估,降低了人力成本;学生课后的文本评价基于对课程的真实体验,客观的反映了老师的特点和学生的实际需求,比主观的自我评价更加真实准确,增加匹配的精确性,并且,随着文本评价数据的积累,老师和学生的画像会越来越完善越来越具体,精确性会进一步逐步升高。

图2是本发明第二实施例的在线教育师生智能匹配方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图2所示的流程顺序为限。如图2所示,该在线教育师生智能匹配方法包括步骤:

S201,获取学生对老师的文本评价,从所述文本评价中提取标签词,其中,所述标签词为用于表征老师上课特点的词汇。

S202,基于所述文本评价对所述标签词进行情感分类。

S203,针对每个学生,根据指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果生成所述学生的第一用户画像。

S204,基于所述文本评价对所述标签词进行存在性分类,以判断所述文本评价指向的老师是否具有所述标签词表征的上课特点,其中,当所述老师具有所述标签词表征的上课特点时,存在性分类结果为存在。

S205,针对每个老师,根据指向所述老师的所述文本评价中存在性分类结果为存在的所述标签词生成所述老师的第二用户画像。

S206,将所述学生的第一用户画像以及所述老师的第二用户画像上传至区块链中,以使得所述区块链对所述学生的第一用户画像以及所述老师的第二用户画像进行加密存储。

S207,针对当前学生,根据所述当前学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值,根据所述匹配值生成所述当前学生的匹配结果。

本实施例与第一实施例的区别在于还包括步骤S206,其他步骤具体参见第一实施例的说明,在此不进行一一赘述。

在步骤S206中,分别基于所述学生的第一用户画像以及所述老师的第二用户画像得到对应的摘要信息,具体来说,摘要信息由所述学生的第一用户画像以及所述老师的第二用户画像进行散列处理得到,比如利用sha256s算法处理得到。将摘要信息上传至区块链可保证其安全性和对用户的公正透明性。用户设备可以从区块链中下载得该摘要信息,以便查证所述学生的第一用户画像以及所述老师的第二用户画像是否被篡改。本示例所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。本方案属于智慧教育领域,通过本方案能够推动智慧城市的建设。

图3是本发明第三实施例的在线教育师生智能匹配装置的结构示意图。如图3所示,该装置30包括标签词识别模块31、情感分类模块32、学生画像生成模块33、存在性分类模块34、老师画像生成模块35和匹配模块36。其中,标签词识别模块31,用于获取学生对老师的文本评价,从所述文本评价中提取标签词,其中,所述标签词为用于表征老师上课特点的词汇;情感分类模块32,用于基于所述文本评价对所述标签词进行情感分类;学生画像生成模块33,用于针对每个学生,根据指向所述学生的所述文本评价中的所述标签词以及所述标签词的情感分类结果生成所述学生的第一用户画像;存在性分类模块34,用于基于所述文本评价对所述标签词进行存在性分类,以判断所述文本评价指向的老师是否具有所述标签词表征的上课特点,其中,当所述老师具有所述标签词表征的上课特点时,存在性分类结果为存在;老师画像生成模块35,用于针对每个老师,根据指向所述老师的所述文本评价中存在性分类结果为存在的所述标签词生成所述老师的第二用户画像;匹配模块36,用于针对当前学生,根据所述当前学生的第一用户画像以及所述老师的第二用户画像,获取所述老师与所述当前学生的匹配值,根据所述匹配值生成所述当前学生的匹配结果。

进一步地,标签词识别模块31用于对所述文本评价进行分词处理,得到所述文本评价的分词词语;根据预先确定的词语与词向量的对应关系,确定所述文本评价中每个分词词语对应的词向量,以生成所述文本评价的词向量矩阵;将所述文本评价的词向量矩阵输入至长短期记忆网络模型中,提取所述文本评价中的标签词,其中,所述长短期记忆网络模型用于识别所述标签词。

进一步地,情感分类模块32用于获取提取出所述标签词的所述文本评价;将所述文本评价输入至第一BERT模型中,对所述标签词进行情感分类,以获取所述标签词的情感分类结果。

进一步地,存在性分类模块34用于获取提取出所述标签词的所述文本评价;将所述文本评价输入至第二BERT模型中,对所述标签词进行存在性分类,以获取所述标签词的存在性分类结果。

进一步地,匹配模块36用于获取当前学生的第一用户画像中情感分类结果为正面极性的标签组;针对每个正面极性的标签组,获取所述老师的第二用户画像中与所述标签组匹配的标签词的第一数量,根据所有正面极性的标签组的所述第一数量计算第一得分;获取当前学生的第一用户画像中情感分类结果为负面极性的标签组;针对每个负面极性的标签组,获取所述老师的第二用户画像中与所述标签组匹配的标签词的第二数量,根据所有负面极性的标签组的所述第二数量计算第二得分;将所述第一得分与所述第二得分的差值作为所述老师与所述当前学生的匹配值;将所述老师与所述当前学生的匹配值按照从大到小进行排序,提取匹配值排序前N位的N个老师作为所述匹配结果,所述N为大于或等于1的整数。

图4是本发明第四实施例的在线教育师生智能匹配装置的结构示意图。如图4所示,该在线教育师生智能匹配装置40包括处理器41及和处理器41耦接的存储器42。

存储器42存储有用于实现上述任一实施例该在线教育师生智能匹配的程序指令。

处理器41用于执行存储器42存储的程序指令以进行在线教育师生智能匹配。

其中,处理器41还可以称为CPU(Central Processing Unit,中央处理单元)。处理器41可能是一种集成电路芯片,具有信号的处理能力。处理器41还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

参阅图5,图5为本发明第五实施例的存储介质的结构示意图。本发明第五实施例的存储介质存储有能够实现上述所有方法的程序指令51,其中,该程序指令51可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。

在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围。

以上所述的仅是本发明的实施方式,在此应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号