首页> 中国专利> 一种上下文不确定性推理方法和装置

一种上下文不确定性推理方法和装置

摘要

本发明实施例公开了一种上下文不确定性推理方法和装置,该方法可包括:计算底层上下文节点彼此之间的条件相关度,所述条件相关度表示两个底层上下文节点之间的条件依赖关系;建立N个底层上下文节点对中每个底层上下文节点对中两个底层上下文节点之间的边;选择所述N个底层上下文节点对中一个的底层上下文节点作为根节点,将所述建立的所有边的指向设置为由所述根节点指向其余节点的指向;设置高层上下文节点到各个底层上下文节点的有向边,以构造树扩展朴素贝叶斯模型;使用所述树扩展朴素贝叶斯模型进行上下文不确定性推理。本发明实施例可以提高上下文不确定性推理的准确度和效率。

著录项

  • 公开/公告号CN105677671A

    专利类型发明专利

  • 公开/公告日2016-06-15

    原文格式PDF

  • 申请/专利权人 华为技术有限公司;北京邮电大学;

    申请/专利号CN201410667686.X

  • 发明设计人 孟祥武;李珂;张玉洁;杜雨露;

    申请日2014-11-20

  • 分类号G06F17/30;

  • 代理机构广州三环专利代理有限公司;

  • 代理人郝传鑫

  • 地址 518129 广东省深圳市龙岗区坂田华为总部办公楼

  • 入库时间 2023-12-18 15:32:47

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-05-28

    授权

    授权

  • 2016-07-13

    实质审查的生效 IPC(主分类):G06F17/30 申请日:20141120

    实质审查的生效

  • 2016-06-15

    公开

    公开

说明书

技术领域

本发明涉及通信领域,尤其涉及一种上下文不确定性推理方法和装置。

背景技术

上下文推理是目前应用很广泛信息推理方法,上下文推理中往往都会包括 底层上下文和高层上下文,其中,底层上下文包括由设备直接获取的信息,而 高层上下文包括设备无法直接获取的信息。例如:针对会议上下文推理中,高 层上下文可以包括会议室状态,底层上下文可以包括会议室计算机状态、会议 室投影仪状态、会议室麦克风状态、会议室噪音等级和会议室人数等。在实际 推理中,上述底层上下文可能会存在不确定性,例如:传感器失效、数据更新 不及时、数据传输时丢失等都可能引发不确定数据的产生。这样在推理过程中 如果忽略上下文数据的不确定性,会使推理识别出的高层上下文是错误的或者 不一致的,从而导致错误的系统行为。

目前贝叶斯网络(BayesNetwork,BN)模型被公认为是不确定性推理的有 效工具。其中,BN模型中底层上下文节点作为高层上下文节点的父节点,且底 层上下文节点之间的有向边过多,而有向边的增加导致该BN模型中条件概率的 增加,且导致BN模型的复杂度很高,这样当样本数据较少时,该BN模型推理 的准确不高,且推理效率也不高。

发明内容

本发明提供了一种上下文不确定性推理方法和装置,可以提高上下文不确 定性推理的准确度和效率。

第一方面,本发明提供一种上下文不确定性推理方法,包括:

计算底层上下文节点彼此之间的条件相关度,所述条件相关度表示两个底 层上下文节点之间的条件依赖关系;

建立N个底层上下文节点对中每个底层上下文节点对中两个底层上下文节 点之间的边,所述N个底层上下文节点对的条件相关度为条件相关度按照大到 小的排序中前面N个,其中,所述N为大于或者等于1的整数;

选择所述N个底层上下文节点对中一个的底层上下文节点作为根节点,将 所述建立的所有边的指向设置为由所述根节点指向其余节点的指向;

设置高层上下文节点到各个底层上下文节点的有向边,以构造树扩展朴素 贝叶斯模型;

使用所述树扩展朴素贝叶斯模型进行上下文不确定性推理。

在第一方面的第一种可能的实现方式中,所述建立N个底层上下文节点对 中每个底层上下文节点对中两个底层上下文节点之间的边,包括:

将所有底层上下文节点彼此之间建立边,且该边用该边对应的两个底层上 下文节点的条件相关度标记;

按照条件相关度从大到小的顺序将所述建立的边进行排序,根据不形成回 路的原则选择所述排序中前面所述N个边。

结合第一方面的第一种可能的实现方式中,在第一方面的第二种可能的实 现方式中,所述方法还包括:

删除所述建立的所有边中除所述N个边之外的所有边。

结合第一方面的上述任一种可能的实现方式中,在第一方面的第三种可能 的实现方式中,所述计算底层上下文节点彼此之间的条件相关度,包括:

通过如下公式建立底层上下文节点彼此之间的条件相关度

I(Ai,Aj|C)=Σs=1kΣr=1mΣq=1lP(Ai=as,Aj=br,C=cq)logP(Ai=as,Aj=br|C=cq)P(Ai=as|C=cq)P(Aj=br|C=cq)

其中,I(Ai,Aj|C)表示底层上下文节点i与底层上下文节点j之间的条件相关 度,C表示高层上下文节点,k、m和l分别表示底层上下文节点i、底层上下文 节点j和高层上下文节点取值的个数,底层上下文节点i取值集合为 U={a1,…,ak},底层上下文节点j取值集合为W={b1,…,bm},高层上下文节点取 值集合为V={c1,…,cl},其中,P()为表示随机事件发生的概率,P(︱)表示 随机事件发生的条件概率,as∈U,br∈W,cq∈V,i≠j。

结合第一方面或者第一方面的第一种可能的实现方式或者第一方面的第二 种可能的实现方式,在第一方面的第四种可能的实现方式中,所述使用所述树 扩展朴素贝叶斯模型进行上下文不确定性推理,包括:

使用期望优化算法对所述树扩展朴素贝叶斯模型进行参数学习,并使用团 树传播算法进行所述树扩展朴素贝叶斯模型的上下文不确定性推理。

第二方面,本发明实施例提供一种上下文不确定性推理装置,包括:计算 单元、建立单元、选择单元、构造单元和推理单元,其中:

所述计算单元,用于计算底层上下文节点彼此之间的条件相关度,所述条 件相关度表示两个底层上下文节点之间的条件依赖关系;

所述建立单元,用于建立N个底层上下文节点对中每个底层上下文节点对 中两个底层上下文节点之间的边,所述N个底层上下文节点对的条件相关度为 条件相关度按照大到小的排序中前面N个,其中,所述N为大于或者等于1的 整数;

所述选择单元,用于选择所述N个底层上下文节点对中一个的底层上下文 节点作为根节点,将所述建立的所有边的指向设置为由所述根节点指向其余节 点的指向;

所述构造单元,用于设置高层上下文节点到各个底层上下文节点的有向边, 以构造树扩展朴素贝叶斯模型;

所述推理单元,用于使用所述树扩展朴素贝叶斯模型进行上下文不确定性 推理。

在第二方面的第一种可能的实现方式中,所述建立单元用于将所有底层上 下文节点彼此之间建立边,且该边用该边对应的两个底层上下文节点的条件相 关度标记,以及用于按照条件相关度从大到小的顺序将所述建立的边进行排序, 根据不形成回路的原则选择所述排序中前面所述N个边。

结合第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现 方式中,所述装置还包括:

删除单元,用于删除所述建立的所有边中除所述N个边之外的所有边。

结合第二方面或者第二方面的第一种可能的实现方式或者第二方面的第二 种可能的实现方式,在第二方面的第三种可能的实现方式中,所述计算单元用 于通过如下公式建立底层上下文节点彼此之间的条件相关度

I(Ai,Aj|C)=Σs=1kΣr=1mΣq=1lP(Ai=as,Aj=br,C=cq)logP(Ai=as,Aj=br|C=cq)P(Ai=as|C=cq)P(Aj=br|C=cq)

其中,I(Ai,Aj|C)表示底层上下文节点i与底层上下文节点j之间的条件相关 度,C表示高层上下文节点,k、m和l分别表示底层上下文节点i、底层上下文 节点j和高层上下文节点取值的个数,底层上下文节点i取值集合为 U={a1,…,ak},底层上下文节点j取值集合为W={b1,…,bm},高层上下文节点取 值集合为V={c1,…,cl},其中,P()为表示随机事件发生的概率,P(︱)表示 随机事件发生的条件概率,as∈U,br∈W,cq∈V,i≠j。

结合第二方面或者第二方面的第一种可能的实现方式或者第二方面的第二 种可能的实现方式,在第二方面的第四种可能的实现方式中,所述推理单元用 于使用期望优化算法对所述树扩展朴素贝叶斯模型进行参数学习,并使用团树 传播算法进行所述树扩展朴素贝叶斯模型的上下文不确定性推理。

上述技术方案中,计算底层上下文节点彼此之间的条件相关度,所述条件 相关度表示两个底层上下文节点之间的条件依赖关系;建立N个底层上下文节 点对中每个底层上下文节点对中两个底层上下文节点之间的边,所述N个底层 上下文节点对的条件相关度为条件相关度按照大到小的排序中前面N个,其中, 所述N为大于或者等于1的整数;选择所述N个底层上下文节点对中一个的底 层上下文节点作为根节点,将所述建立的所有边的指向设置为由所述根节点指 向其余节点的指向;设置高层上下文节点到各个底层上下文节点的有向边,以 构造树扩展朴素贝叶斯模型;使用所述树扩展朴素贝叶斯模型进行上下文不确 定性推理。可见,上述树扩展朴素贝叶斯模型中的边比现有技术中的BN模型的 边要少,即树扩展朴素贝叶斯模型的复杂度比较低,从而可以提高上下文不确 定性推理的准确度和效率。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施 例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述 中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付 出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例提供的一种上下文不确定性推理方法的流程示意图;

图2是本发明实施例提供的另一种上下文不确定性推理方法的流程示意图;

图3是本发明实施例提供的一种可选的模型结构示意图;

图4-图6是本实施例提供的实验结果示意图;

图7是本发明实施例提供的一种上下文不确定性推理装置的结构示意图;

图8是本发明实施例提供的另一种上下文不确定性推理装置的结构示意图;

图9是本发明实施例提供的另一种上下文不确定性推理装置的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清 楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是 全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造 性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参阅图1,图1是本发明实施例提供的一种上下文不确定性推理方法的流 程示意图,如图1所示,包括以下步骤:

101、计算底层上下文节点彼此之间的条件相关度,所述条件相关度表示两 个底层上下文节点之间的条件依赖关系。

可选的,上述条件相关度与条件依赖关系可以是成正比,即两个底层上下 文节点的条件相关度越高,那么这两个底层上下文节点的条件依赖关系就越密 切。另外,上述条件依赖关系表示两个底层上下文节点的取值之间存在依赖关 系,例如:以会议室上下文推理为例,会议室人数对应的底层上下文节点与会 议室噪音对应的底层上下文节点存在依赖关系,会议室人数越多,会议室噪音 就可能越大。

需要说明的是,本实施例中底层上下文节点可以为能够获取对应的底层上 下文的测量装置,例如:传感器、探测器等。另外,本实施例中一个底层上下 文节点与唯一一个底层上下文对应。

102、建立N个底层上下文节点对中每个底层上下文节点对中两个底层上下 文节点之间的边,所述N个底层上下文节点对的条件相关度为条件相关度按照 大到小的排序中前面N个,其中,所述N为大于或者等于1的整数。

由于步骤101计算了底层上下文节点彼此之间的条件相关度,这样步骤102 就可以选择条件相关度为前N的N个底层上下文节点对,并建立每个底层上下 文节点对中两个底层上下文节点之间的边。例如:总共有5个底层上下文节点, 这样这5个底层上下文节点就存在10个底层上下文节点对,当上述N为2时, 就可以选择这5个底层上下文节点对中的2个底层上下文节点对,并建立这2 个底层上下文节点中每个底层上下文节点对中两个底层上下文节点之间的边。

可选的,上述边可以理解为两个底层上下文节点之间建立关联。

103、选择所述N个底层上下文节点对中一个的底层上下文节点作为根节 点,将所述建立的所有边的指向设置为由所述根节点指向其余节点的指向。

可选的,上述根节点可以是上述N个底层上下文节点对中任意一个底层上 下文节点。另外,由于步骤102建立底层上下文节点之间的边,但并没有这些 边设置指向。步骤103选择出根节点后,就可以将步骤102建立的边的指向设 置为根节点指向其余节点的指向。其中,上述其余节点为上述N个底层上下文 节点除上述根节点之外的底层上下文节点。

104、设置高层上下文节点到各个底层上下文节点的有向边,以构造树扩展 朴素贝叶斯(TreeArgumentedNaiveBayes,TAN)模型。

可选的,步骤104可以是建立的有向边可以是指向为高层上下文节点指向 底层上下文节点的有向边。另外,上述构造的TAN模型可以包括步骤102、103 和104建立的边。

105、使用所述树扩展朴素贝叶斯模型进行上下文不确定性推理。

当TAN模型确定后,就可以使用该TAN模型进行上下文不确定性推理。 另外,上述TAN模型可以应用于任何包括高层上下文和底层上下文的场景中的 上下文不确定性推理。例如:可以应用于企业会议上下文推理领域,即使用上 述TAN模型推理会议室状态。还可以用于于健康状况识别,即使用上述TAN 模型推理对人的健康状况,因为人的健康状况可能与脉搏、血压、心率、体温 等底层上下文直接相关。这样可以将人的健康状况作为高层上下文,脉搏、血 压等作为底层上下文。还可以应用于上下文感知推荐系统中的用户偏好的挖掘。 上下文感知推荐系统能够根据用户所处的上下文环境(如时间、位置、周围人员、 情绪、活动状态、设备、网络条件等)进行相关项目(电影、音乐、商品、服务 等)的推荐。具体可以是将用户偏好视为一个高层上下文,取值为是和否。与 用户偏好直接相关的底层上下文可能包括:用户对项目的评分、浏览项目的次 数、收藏项目、项目类型、项目价格等。

可选的,上述方法可以应用于任何智能设备,例如:平板电脑、手机、电 子阅读器、遥控器、个人计算机(PersonalComputer,PC)、笔记本电脑、车载 设备、网络电视、可穿戴设备等智能设备。

本实施例中,计算底层上下文节点彼此之间的条件相关度,所述条件相关 度表示两个底层上下文节点之间的条件依赖关系;建立N个底层上下文节点对 中每个底层上下文节点对中两个底层上下文节点之间的边,所述N个底层上下 文节点对的条件相关度为条件相关度按照大到小的排序中前面N个,其中,所 述N为大于或者等于1的整数;选择所述N个底层上下文节点对中一个的底层 上下文节点作为根节点,将所述建立的所有边的指向设置为由所述根节点指向 其余节点的指向;设置高层上下文节点到各个底层上下文节点的有向边,以构 造树扩展朴素贝叶斯模型;使用所述树扩展朴素贝叶斯模型进行上下文不确定 性推理。可见,上述树扩展朴素贝叶斯模型中的边比现有技术中的BN模型的边 要少,即树扩展朴素贝叶斯模型的复杂度比较低,从而可以提高上下文不确定 性推理的准确度和效率。

请参阅图2,图2是本发明实施例提供的另一种上下文不确定性推理方法的 流程示意图,如图2所示,包括以下步骤:

201、通过目标公式计算底层上下文节点彼此之间的条件相关度,所述条件 相关度表示两个底层上下文节点之间的条件依赖关系。

例如:步骤201可以包括:

通过如下公式建立底层上下文节点彼此之间的条件相关度

I(Ai,Aj|C)=Σs=1kΣr=1mΣq=1lP(Ai=as,Aj=br,C=cq)logP(Ai=as,Aj=br|C=cq)P(Ai=as|C=cq)P(Aj=br|C=cq)

其中,I(Ai,Aj|C)表示底层上下文节点i与底层上下文节点j之间的条件相关 度,C表示高层上下文节点,k、m和l(L的小写)分别表示底层上下文节点i、 底层上下文节点j和高层上下文节点取值的个数,底层上下文节点i取值集合为 U={a1,…,ak},底层上下文节点j取值集合为W={b1,…,bm},高层上下文节点取 值集合为V={c1,…,cl},其中,P()为表示随机事件发生的概率,P(︱)表示 随机事件发生的条件概率,as∈U,br∈W,cq∈V,i≠j。

另外,上述i可以是1到n中任一整数,j也可以是1到n且任一整个,且 必须是i不等于j,其中,n为底层上下文节点的数量。

上述P(Ai=as,Aj=br,C=cq)具体可以是表示底层上下文节点i取值为as,底 层上下文节点j取值为br,以及高层上下文节点取值为cq时的概率。另外,这 里的概率可以是通过对样本数据进行统计得到的。例如,样本数据中有10条数 据,其中满足Ai=as,Aj=br,C=cq的数据有5条,那么P(Ai=as,Aj=br,C=cq)就 等于0.5。

上述P(Ai=as,Aj=br|C=cq)具体可以是表示有高层上下文节点的取值为cq的条件下,底层上下文节点i取值为as且底层上下文节点j取值为br的概率。上 述P(Ai=as|C=cq)具体可以是表示有高层上下文节点的取值为cq的条件下,底层 上下文节点i取值为as的概率。上述P(Aj=br|C=cq)具体可以是表示有高层上下 文节点的取值为cq的条件下,底层上下文节点j取值为br的概率。

另外,上述概率都可以是通过对样本数据进行统计获取的。

202、建立N个底层上下文节点对中每个底层上下文节点对中两个底层上下 文节点之间的边,所述N个底层上下文节点对的条件相关度为条件相关度按照 大到小的排序中前面N个,其中,所述N为大于或者等于1的整数。

可选的,步骤202可以包括:

将所有底层上下文节点彼此之间建立边,且该边用该边对应的两个底层上 下文节点的条件相关度标记;

按照条件相关度从大到小的顺序将所述建立的边进行排序,根据不形成回 路的原则选择所述排序中前面所述N个边。

通过上述步骤可以实现每两个底层上下文节点之间都彼此建立边,且每个 边都用该边对应的两个底层上下文节点的条件相关度标记,这样就可以按照上 述排序选择N个边。另外,上述不形成回路的原则可以是指选择出来的边不会 形成回路。

203、选择所述N个底层上下文节点对中一个的底层上下文节点作为根节 点,将所述建立的所有边的指向设置为由所述根节点指向其余节点的指向。

204、设置高层上下文节点到各个底层上下文节点的有向边,以构造树扩展 朴素贝叶斯模型。

205、使用所述树扩展朴素贝叶斯模型进行上下文不确定性推理。

可选的,步骤205可以包括:

使用期望优化(ExpectationMaximization,EM)算法对所述树扩展朴素贝 叶斯模型进行参数学习,并使用团树传播算法(CliqueTreePropagation,CTP) 进行所述树扩展朴素贝叶斯模型的上下文不确定性推理。

可选的,上述参数学习具体可以是使用训练数据对上述TAN模型进行参数 学习。另外,上述使用CTP进行TAN模型的上下文不确定性推理可以是进行诊 断推理。具体可以是将底层上下文节点的取值作为输入,通过调用CTP算法输 出得到高层上下文节点的后验概率分布。其中,上述EM算法和CTP算法为公 知的算法,此处不作详细说明。

可选的,上述方法还可以包括以下步骤:

删除所述建立的所有边中除所述N个边之外的所有边。

例如:上述N为1时,可以实现只保留条件相关度最大的那一条边。例如: 以会议室应用场景为例进行说明。该场景中高层上下文、底层上下文可如下表 所示:

上下文名称 上下文类型 取值范围 会议室计算机状态 底层上下文 开、关 会议室投影仪状态 底层上下文 开、关 会议室麦克风状态 底层上下文 开、关 会议室噪音等级 底层上下文 高、低 会议室人数 底层上下文 无人、一人、多人 会议室状态 高层上下文 开会、空闲、维护

其中,上述每个上下文可以等效为一个上下文节点。

采用上述步骤就可以得到上述场景的TAN模型结构,该TAN模型结构具 体可以如图3所示,在该TAN模型中高层上下文节点(会议室状态)有到各底 层上下文节点的边,且还包括会议室人数对应的底层上下文节点到会议室噪音 对应的底层上下文节点的边,该边可以是条件相关度最高的边。通过图3就可 以知道该TAN模型中只有6条边,且条件概率数为 3+2×3+2×3+2×3+3×3×2+3×3=48个。可见,采用本实施例建立的TAN模型的 复杂度很低。

本实施例中,在图1所示的实施例的基础上增加了多种可选的实施方式, 且都可以实现提高上下文不确定性推理的准确度和效率。另外,本实施例中的 实施方式都可以应用于图1所示的实施例中。

为了更好地说明本发明建立的TAN模型的有益效果,下面本发明建立的 TAN模型和现有技术BN包括的贝叶斯信任网络(Bayesianbeliefnetwork,BBN) 模型进行实验数据对比。

其中,在不同规模的数据集上对BBN模型和TAN模型的参数学习实验和 推理实验。实验结果分别如图4和图5所示。

其中,图4说明参数学习时间随着数据集规模线性增加。TAN模型的参数 学习时间明显低于BBN模型的参数学习时间。图5说明推理时间也随着数据集 规模线性增加。TAN模型的推理时间明显低于BBN模型的推理时间。

另外,与BBN模型相比,TAN模型中的有向边数量减少,降低了推理概率 计算中乘法运算的次数,从而缩短了推理时间。例如:以会议室上下文携带为 例,高层上下文节点(例如:会议室状态节点)的父节点数量由5个减少到0 个。因此,会议室状态节点的条件概率由144个减少为3个。整个模型的条件 概率数由163个减少为48个。条件概率数的减少降低了推理过程中的遍历搜索 条件概率的时间复杂度。因此,由于TAN模型中的有向边数量和父节点数量的 减少,降低了推理概率计算的时间复杂度,提高了推理效率。

通过上述实验数据就可以得到本发明建立的TAN模型的参数学习效率和推 理效率高于BBN模型的参数学习效率和推理效率。

另外,推理的准确率可以通过如下实验数据说明。

如下表所示的条件概率分布,该表中随机生成了不同规模的模拟训练数据 集和测试数据集。

节点 条件依赖节点 条件概率分布 会议室状态 麦克风状态 0.8,0.2,0.8,0.2,0.8,0.2 会议室状态 计算机状态 0.8,0.2,0.8,0.2,0.8,0.2 会议室状态 投影仪状态 0.8,0.2,0.7,0.2,0.8,0.3 会议室状态 会议室噪音等级 0.2,0.8,0.2,0.8,0.2,0.8 会议室状态 会议室人数 0.05,0.9,0.1,0.15,0.09,0.2,0.8,0.01,0.7

其中,表中条件概率按照节点状态顺序依次给出。

其中,模拟训练数据集大小为10至200不等,模拟测试数据集大小为10000。 通过实验可以得到推理准确率实验结果如下表所示以及图6所示:

根据上述表的实验结果分别计算两个模型的平均推理准确率。BBN模型平 均推理准确率=0.881,TAN模型平均推理准确率=0.947,TAN模型的平均推理 准确率比BBN模型提高了0.066。说明TAN模型的整体推理准确率有所提高。 当训练数据集规模为10时,TAN模型的推理准确率提高了0.136。当训练数据 集规模为20时,TAN模型的推理准确率提高了0.055。当训练数据集规模为40 时,TAN模型的推理准确率提高了0.08。当训练数据集规模为200时,TAN模 型的推理准确率提高了0.035。说明训练数据较少时,TAN模型的推理准确率提 升更高。总之,相比现有技术的BBN模型,TAN模型在整体和局部准确率都有 所提高。特别是在训练数据较少时,效果更加明显。

需要说明的是,当训练样本数增加时,两种模型的推理准确率都有提高的 主要原因是:实验使用的训练样本是根据上表中的条件概率分布随机生成的。 其中的每一条样本的生成视为一次随机试验。根据大数定律可知,当试验次数 足够多时,事件出现的频率无穷接近于该事件发生的概率。也就是说,当样本 数较少时,一条样本在样本集中出现的频率并不接近其概率,甚至差距很大。 当样本数逐渐增大时,一条样本出现的频率就逐渐接近其发生的概率。利用训 练样本对贝叶斯网进行参数学习的过程其实就是统计学中参数估计的过程。实 验中两种模型采用的参数学习算法都是EM算法,EM算法是一种最大似然估计 算法。当样本数较少时,最大似然估计得到的概率与实际概率差距较大。因此, 模型的推理准确率较低。当样本数增大时,最大似然估计得到的概率与实际概 率接近,模型的推理准确率就提高。当样本数增大到一定程度时,由于估计得 到的概率与实际概率已非常接近,推理准确率也趋于稳定。

TAN模型推理的整体准确率有所提高的主要原因是:与BBN模型相比TAN 模型与数据的概率分布拟合度更高。实验中采用的训练数据和测试数据都是根 据上表中的条件概率分布随机生成。该表的条件概率分布表明,计算机状态节 点与投影仪状态节点之间没有条件依赖关系。麦克风状态节点与会议室噪音节 点之间也没有条件依赖关系。因此,在会议室状态贝叶斯网结构中,计算机状 态节点与投影仪状态节点之间的有向边以及麦克风状态节点和会议室噪音节点 之间的有向边可以删除。因此,TAN模型与数据的概率分布拟合程度更好,从 而得到的整体推理准确率更高。

需要说明的是,在训练数据较少时,TAN模型推理的准确率提升较高的原 因:TAN模型中的条件概率比BBN模型减少了115个,所需的能够学习精确模 型的训练数据量更少。模型的参数学习是根据训练数据的估计条件概率。当训 练数据较少而需要估计的条件概率较多时,无法进行精确的估计。即估计值与 上表中的实际条件概率分布差距较大。因此,在训练数据较少的情况下,TAN 模型能够学习到的条件概率分布更近似数据。从而,具有更高的推理准确率。

上下文推理准确率的提高能够更准确的感知高层上下文,从而使系统或用 户能够做出正确的决策。推理效率的提高使得系统在企业通信与协作领域的大 规模上下文数据环境下,具有较短的响应时间,提高了上下文推理的实时性。

下面为本发明装置实施例,本发明装置实施例用于执行本发明方法实施例 一至二实现的方法,为了便于说明,仅示出了与本发明实施例相关的部分,具 体技术细节未揭示的,请参照本发明实施例一和实施例二。

请参阅图7,图7是本发明实施例提供的一种上下文不确定性推理装置的结 构示意图,如图7所示,包括:计算单元71、建立单元72、选择单元73、构造 单元74和推理单元75,其中:

计算单元71,用于计算底层上下文节点彼此之间的条件相关度,所述条件 相关度表示两个底层上下文节点之间的条件依赖关系。

可选的,上述条件相关度与条件依赖关系可以是成正比,即两个底层上下 文节点的条件相关度越高,那么这两个底层上下文节点的条件依赖关系就越密 切。另外,上述条件依赖关系表示两个底层上下文节点的取值之间存在依赖关 系,例如:以会议室上下文推理为例,会议室人数对应的底层上下文节点与会 议室噪音对应的底层上下文节点存在依赖关系,会议室人数越多,会议室噪音 就可能越大。

需要说明的是,本实施例中底层上下文节点可以为能够获取对应的底层上 下文的测量装置,例如:传感器、探测器等。另外,本实施例中一个底层上下 文节点与唯一一个底层上下文对应。

建立单元72,用于建立N个底层上下文节点对中每个底层上下文节点对中 两个底层上下文节点之间的边,所述N个底层上下文节点对的条件相关度为条 件相关度按照大到小的排序中前面N个,其中,所述N为大于或者等于1的整 数。

由于计算单元71计算了底层上下文节点彼此之间的条件相关度,这样建立 单元72就可以选择条件相关度为前N的N个底层上下文节点对,并建立每个 底层上下文节点对中两个底层上下文节点之间的边。

可选的,上述边可以理解为两个底层上下文节点之间建立关联。

选择单元73,用于选择所述N个底层上下文节点对中一个的底层上下文节 点作为根节点,将所述建立的所有边的指向设置为由所述根节点指向其余节点 的指向。

可选的,上述根节点可以是上述N个底层上下文节点对中任意一个底层上 下文节点。

构造单元74,用于设置高层上下文节点到各个底层上下文节点的有向边, 以构造树扩展朴素贝叶斯模型。

推理单元75,用于使用所述树扩展朴素贝叶斯模型进行上下文不确定性推 理。

当TAN模型确定后,就可以使用该TAN模型进行上下文不确定性推理。 另外,上述TAN模型可以应用于任何包括高层上下文和底层上下文的场景中的 上下文不确定性推理。

可选的,建立单元72可以用于将所有底层上下文节点彼此之间建立边,且 该边用该边对应的两个底层上下文节点的条件相关度标记,以及用于按照条件 相关度从大到小的顺序将所述建立的边进行排序,根据不形成回路的原则选择 所述排序中前面所述N个边。

可选的,如图8所示,所述装置还可以包括:

删除单元76,用于删除所述建立的所有边中除所述N个边之外的所有边。

可选的,计算单元71可以用于通过如下公式建立底层上下文节点彼此之间 的条件相关度

I(Ai,Aj|C)=Σs=1kΣr=1mΣq=1lP(Ai=as,Aj=br,C=cq)logP(Ai=as,Aj=br|C=cq)P(Ai=as|C=cq)P(Aj=br|C=cq)

其中,I(Ai,Aj|C)表示底层上下文节点i与底层上下文节点j之间的条件相关 度,C表示高层上下文节点,k、m和l分别表示底层上下文节点i、底层上下文 节点j和高层上下文节点取值的个数,底层上下文节点i取值集合为 U={a1,…,ak},底层上下文节点j取值集合为W={b1,…,bm},高层上下文节点取 值集合为V={c1,…,cl},其中,P()为表示随机事件发生的概率,P(︱)表示 随机事件发生的条件概率,as∈U,br∈W,cq∈V,i≠j。

另外,上述i可以是1到n中任一整数,j也可以是1到n且任一整个,且 必须是i不等于j,其中,n为底层上下文节点的数量。

上述P(Ai=as,Aj=br,C=cq)具体可以是表示底层上下文节点i取值为as,底 层上下文节点j取值为br,以及高层上下文节点取值为cq时的概率。另外,这 里的概率可以是通过对样本数据进行统计得到的。例如,样本数据中有10条数 据,其中满足Ai=as,Aj=br,C=cq的数据有5条,那么P(Ai=as,Aj=br,C=cq)就 等于0.5。

上述P(Ai=as,Aj=br|C=cq)具体可以是表示有高层上下文节点的取值为cq的条件下,底层上下文节点i取值为as且底层上下文节点j取值为br的概率。上 述P(Ai=as|C=cq)具体可以是表示有高层上下文节点的取值为cq的条件下,底层 上下文节点i取值为as的概率。上述P(Aj=br|C=cq)具体可以是表示有高层上下 文节点的取值为cq的条件下,底层上下文节点j取值为br的概率。

另外,上述概率都可以是通过对样本数据进行统计获取的。

可选的,推理单元75可以用于使用期望优化算法对所述树扩展朴素贝叶斯 模型进行参数学习,并使用团树传播算法进行所述树扩展朴素贝叶斯模型的上 下文不确定性推理。

可选的,上述装置可以应用于任何智能设备,例如:平板电脑、手机、电 子阅读器、遥控器、PC、笔记本电脑、车载设备、网络电视、可穿戴设备等智 能设备。

本实施例中,计算底层上下文节点彼此之间的条件相关度,所述条件相关 度表示两个底层上下文节点之间的条件依赖关系;建立N个底层上下文节点对 中每个底层上下文节点对中两个底层上下文节点之间的边,所述N个底层上下 文节点对的条件相关度为条件相关度按照大到小的排序中前面N个,其中,所 述N为大于或者等于1的整数;选择所述N个底层上下文节点对中一个的底层 上下文节点作为根节点,将所述建立的所有边的指向设置为由所述根节点指向 其余节点的指向;设置高层上下文节点到各个底层上下文节点的有向边,以构 造树扩展朴素贝叶斯模型;使用所述树扩展朴素贝叶斯模型进行上下文不确定 性推理。可见,上述树扩展朴素贝叶斯模型中的边比现有技术中的BN模型的边 要少,即树扩展朴素贝叶斯模型的复杂度比较低,从而可以提高上下文不确定 性推理的准确度和效率。

请参阅图9,图9是本发明实施例提供的另一种上下文不确定性推理装置的 结构示意图,如图9所示,包括:存储器91和处理器92,其中,存储器91用 于存储一组程序代码,处理器92用于调用存储器91存储的代码执行如下操作:

计算底层上下文节点彼此之间的条件相关度,所述条件相关度表示两个底 层上下文节点之间的条件依赖关系;

建立N个底层上下文节点对中每个底层上下文节点对中两个底层上下文节 点之间的边,所述N个底层上下文节点对的条件相关度为条件相关度按照大到 小的排序中前面N个,其中,所述N为大于或者等于1的整数;

选择所述N个底层上下文节点对中一个的底层上下文节点作为根节点,将 所述建立的所有边的指向设置为由所述根节点指向其余节点的指向;

设置高层上下文节点到各个底层上下文节点的有向边,以构造树扩展朴素 贝叶斯模型;

使用所述树扩展朴素贝叶斯模型进行上下文不确定性推理。

可选的,处理器92执行的所述建立N个底层上下文节点对中每个底层上下 文节点对中两个底层上下文节点之间的边的操作,可以包括:

将所有底层上下文节点彼此之间建立边,且该边用该边对应的两个底层上 下文节点的条件相关度标记;

按照条件相关度从大到小的顺序将所述建立的边进行排序,根据不形成回 路的原则选择所述排序中前面所述N个边。

可选的,处理器92还可以执行如下操作:

删除所述建立的所有边中除所述N个边之外的所有边。

可选的,处理器92执行的所述计算底层上下文节点彼此之间的条件相关度 的操作,还可以包括:

通过如下公式建立底层上下文节点彼此之间的条件相关度

I(Ai,Aj|C)=Σs=1kΣr=1mΣq=1lP(Ai=as,Aj=br,C=cq)logP(Ai=as,Aj=br|C=cq)P(Ai=as|C=cq)P(Aj=br|C=cq)

其中,I(Ai,Aj|C)表示底层上下文节点i与底层上下文节点j之间的条件相关 度,C表示高层上下文节点,k、m和l分别表示底层上下文节点i、底层上下文 节点j和高层上下文节点取值的个数,底层上下文节点i取值集合为 U={a1,…,ak},底层上下文节点j取值集合为W={b1,…,bm},高层上下文节点取 值集合为V={c1,…,cl},其中,P()为表示随机事件发生的概率,P(︱)表示 随机事件发生的条件概率,as∈U,br∈W,cq∈V,i≠j。

可选的,处理器92执行的所述使用所述树扩展朴素贝叶斯模型进行上下文 不确定性推理的操作,还可以包括:

使用期望优化算法对所述树扩展朴素贝叶斯模型进行参数学习,并使用团 树传播算法进行所述树扩展朴素贝叶斯模型的上下文不确定性推理。

可选的,上述装置可以应用于任何智能设备,例如:平板电脑、手机、电 子阅读器、遥控器、PC、笔记本电脑、车载设备、网络电视、可穿戴设备等智 能设备。

本实施例中,计算底层上下文节点彼此之间的条件相关度,所述条件相关 度表示两个底层上下文节点之间的条件依赖关系;建立N个底层上下文节点对 中每个底层上下文节点对中两个底层上下文节点之间的边,所述N个底层上下 文节点对的条件相关度为条件相关度按照大到小的排序中前面N个,其中,所 述N为大于或者等于1的整数;选择所述N个底层上下文节点对中一个的底层 上下文节点作为根节点,将所述建立的所有边的指向设置为由所述根节点指向 其余节点的指向;设置高层上下文节点到各个底层上下文节点的有向边,以构 造树扩展朴素贝叶斯模型;使用所述树扩展朴素贝叶斯模型进行上下文不确定 性推理。可见,上述树扩展朴素贝叶斯模型中的边比现有技术中的BN模型的边 要少,即树扩展朴素贝叶斯模型的复杂度比较低,从而可以提高上下文不确定 性推理的准确度和效率。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程, 是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算 机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。 其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory, ROM)或随机存取存储器(RandomAccessMemory,简称RAM)等。

以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之 权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号