首页> 中国专利> 通过使用特征抓取功能进行行为判别分析方法

通过使用特征抓取功能进行行为判别分析方法

摘要

本发明提出了一种通过使用特征抓取功能进行行为判别分析方法,包括如下步骤:S1,根据人脸表情特征属性值对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。

著录项

  • 公开/公告号CN107679492A

    专利类型发明专利

  • 公开/公告日2018-02-09

    原文格式PDF

  • 申请/专利权人 重庆市智权之路科技有限公司;

    申请/专利号CN201710911806.X

  • 发明设计人 杨晓凡;刘玉蓉;

    申请日2017-09-29

  • 分类号

  • 代理机构

  • 代理人

  • 地址 402160 重庆市永川区兴龙大道123号6幢27-6

  • 入库时间 2023-06-19 04:31:42

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-10-16

    授权

    授权

  • 2018-09-21

    专利申请权的转移 IPC(主分类):G06K9/00 登记生效日:20180903 变更前: 变更后: 申请日:20170929

    专利申请权、专利权的转移

  • 2018-03-09

    实质审查的生效 IPC(主分类):G06K9/00 申请日:20170929

    实质审查的生效

  • 2018-02-09

    公开

    公开

说明书

技术领域

本发明涉及大数据分析领域,尤其涉及一种通过使用特征抓取功能进行行为判别分析方法。

背景技术

当今社会人员交流频繁,在商场、车站、机场等人流密集区域会有大量的视频监视设备,但是仅用于对密集区域进行单纯的图像采集,没有对图像进行后续的归类以及判别,但是由于社会生活中人流密集复杂,需要对出入人流密集区域的人员和场所进行合理规划,采取相应的管理和配置,从而使人流密集区域的餐饮、接驳交通以及出入口能够合理配置,当获取大量图像特征信息之后,无法对参考样本进行人流密集区域初始状态和结果状态进行相关度匹配,这就亟需本领域技术人员解决相应的技术问题。

发明内容

本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种通过使用特征抓取功能进行行为判别分析方法。

为了实现本发明的上述目的,本发明提供了一种通过使用特征抓取功能进行行为判别分析方法,包括如下步骤:

S1,根据人脸表情特征属性值对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。

所述的通过使用特征抓取功能进行行为判别分析方法,优选的,所述S1 包括:

S1-1,对图像特征进行归类判断,将不同人脸表情特征集合C的图像数据进行模型判断;提取有效人体特征图像的直方图,构造纹理信息,获取人连表情特征集合中每个属性值,

微笑属性值Csmile=∑jj·δxj·δyj,其中δxj和δyj分别为X轴微笑特征因子和Y轴特征因子;

张嘴属性值Copenmouth=∑jj·τxjτyj,其中τxj和τyj分别为X轴张嘴特征因子和Y轴张嘴特征因子;

低头属性值Cdownhead=∑jj·βxjβyj,其中βxj和βyj分别为X轴低头特征因子和Y轴低头特征因子;

抬头属性值Cuphead=∑jj·εxj·εyj,其中εxj和εyj分别为X轴抬头特征因子和Y轴抬头特征因子;

哭泣属性值其中和分别为X轴哭泣特征因子和Y轴哭泣特征因子;

侧脸属性值Chalfface=Σjj·μxj·μyj,其中μxj和μyj分别为X轴侧脸特征因子和Y轴侧脸特征因子;

S1-2,将整个人流密集区域图像数据进行划分,形成监视窗序列对 (M1,M2),(M2,M3),...,(Mn-1,Mn);定位人体特征图像的手持物体边界,从视频图像最初帧头部开始;定位某个人体特征图像的接入边界,从视频图像尾部搜寻该人体特征图像所出现的人流密集区域的相应位置,并且判断该人体特征图像出现的位置,停留的时间,以及是否购物或者手持物品;

S1-3,通过对监视窗序列对进行比对抓取,判断前后视频帧一个人体特征图像和人脸特征图像的变化度

其中,其中|Ei,jLn+Ei,jMn|是查询待匹配特征Ln和监视窗图像Mn的相似度,E代表人流密集区域匹配图像数量,S代表影响人体特征图像和人脸特征图像的干扰集合,s、t为正整数,s、t的取值不同,其最小取值是1,最大取值为匹配图像特征图中匹配的人体特征图像和人脸特征图像个数;ωi,j为人脸表情特征集合C匹配相关度总次数的权重,Ki为人流密集区域进行人体特征图像错误匹配的惩罚因子,z和d分别代表人体特征图像的收集集合和人体特征图像下一监视窗的收集集合,

将该变化度与相应的图像采集模块所处的人流密集区域位置进行信息匹配,得到人流密集区域位置与变化度的正相关条件函数

其中,Y(x,y)和Z(x,y)分别表示人体特征图像和人脸特征图像坐标点(x,y) 间缺失的相互作用关系,ηi和σj分别表示人体特征图像判断阈值和人脸特征图像判断阈值,其为开区间(0,1)内的正数,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,

S1-4,依据定义每个个体的人体特征图像和人脸特征图像之间关联关系,按照关联关系给查询相关度和数据相关度排序,产生不同相关度等级的非支配个体集合,依据人体特征图像和人脸特征图像等级内非支配个体数目、序号等级的从相关度小到大顺序,如果在每个人流密集区域的出口没有匹配到具有人体特征图像和人脸特征图像任一特征的相关度图像,执行步骤S1-1,如果相应的人流密集区域位置获取相关度图像并在相应位置进行特征标记,执行步骤 S1-5;

S1-5,设置人流密集区域日志,根据用户需求提取该人流密集区域的属性信息,进行相似度计算,利用人体特征图相似度计算查询相似度,利用人脸特征图像相似度计算查询相似度,直至日志相似度与查询相似度收敛;通过采用匹配权重α来平衡默认的人体特征图像和人脸特征图像相关度和用户定义相关度衡量结果值

D[i,j]=maxFi,j(1-α)·P(i,j)+α·P(i,j,rx,y)+minFi,j其中,maxFi,j人体特征图像和人脸特征图像的变化度的最大值,minFi,j人体特征图像和人脸特征图像的变化度的最小值,P(i,j)为人流密集区域初始判断决策值,P(i,j,rx,y)为人流密集区域结果判断决策值,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,其中初始判断决策值是根据历史特征图像数据进行密集区域的初始判断,对于结果判断决策值是通过S1-1至S1-5判断之后进行优化后的判断决策值。

综上所述,由于采用了上述技术方案,本发明的有益效果是:

本发明通过对图像进行采集之后,根据人员的面部信息以及进出人流密集区域的体形和穿戴差异进行了分类,从而能够将该人流密集区域的相应配套设施进行完善,通过该分类器模型进行分类,耗费系统资源小,节省了时间开销,而且将人流密集区域人员的初始状态和结果状态进行相关度匹配,从而为人流密集区域提供了合理的配置方案,有利于人员疏导以及人员分流。

本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。

附图说明

本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:

图1是本发明总体示意图。

具体实施方式

下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。

在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。

如图1所示,本发明方法包括如下步骤:

本发明提供了一种通过使用特征抓取功能进行行为判别分析方法,包括如下步骤:

S1,根据人脸表情特征属性值对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。

所述的通过使用特征抓取功能进行行为判别分析方法,优选的,所述S1 包括:

S1-1,对图像特征进行归类判断,将不同人脸表情特征集合C的图像数据进行模型判断;提取有效人体特征图像的直方图,构造纹理信息,获取人连表情特征集合中每个属性值,

微笑属性值Csmile=Σjj·δxj·δyj,其中δxj和δyj分别为X轴微笑特征因子和Y轴特征因子;

张嘴属性值Copenmouth=Σjj·τxjτyj,其中τxj和τyj分别为X轴张嘴特征因子和Y轴张嘴特征因子;

低头属性值Cdownhead=Σjj·βxjβyj,其中βxj和βyj分别为X轴低头特征因子和Y轴低头特征因子;

抬头属性值Cuphead=∑jj·εxj·εyj,其中εxj和εyj分别为X轴抬头特征因子和Y轴抬头特征因子;

哭泣属性值其中和分别为X轴哭泣特征因子和Y轴哭泣特征因子;

侧脸属性值Chalfface=Σjj·μxj·μyj,其中μxj和μyj分别为X轴侧脸特征因子和Y轴侧脸特征因子;

S1-2,将整个人流密集区域图像数据进行划分,形成监视窗序列对 (M1,M2),(M2,M3),...,(Mn-1,Mn);定位人体特征图像的手持物体边界,从视频图像最初帧头部开始;定位某个人体特征图像的接入边界,从视频图像尾部搜寻该人体特征图像所出现的人流密集区域的相应位置,并且判断该人体特征图像出现的位置,停留的时间,以及是否购物或者手持物品;

S1-3,通过对监视窗序列对进行比对抓取,判断前后视频帧一个人体特征图像和人脸特征图像的变化度

其中,其中|Ei,jLn+Ei,jMn|是查询待匹配特征Ln和监视窗图像Mn的相似度,E代表人流密集区域匹配图像数量,S代表影响人体特征图像和人脸特征图像的干扰集合,s、t为正整数,s、t的取值不同,其最小取值是1,最大取值为匹配图像特征图中匹配的人体特征图像和人脸特征图像个数;ωi,j为人脸表情特征集合C匹配相关度总次数的权重,Ki为人流密集区域进行人体特征图像错误匹配的惩罚因子,z和d分别代表人体特征图像的收集集合和人体特征图像下一监视窗的收集集合,

将该变化度与相应的图像采集模块所处的人流密集区域位置进行信息匹配,得到人流密集区域位置与变化度的正相关条件函数

其中,Y(x,y)和Z(x,y)分别表示人体特征图像和人脸特征图像坐标点(x,y) 间缺失的相互作用关系,ηi和σj分别表示人体特征图像判断阈值和人脸特征图像判断阈值,其为开区间(0,1)内的正数,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,

S1-4,依据定义每个个体的人体特征图像和人脸特征图像之间关联关系,按照关联关系给查询相关度和数据相关度排序,产生不同相关度等级的非支配个体集合,依据人体特征图像和人脸特征图像等级内非支配个体数目、序号等级的从相关度小到大顺序,如果在每个人流密集区域的出口没有匹配到具有人体特征图像和人脸特征图像任一特征的相关度图像,执行步骤S1-1,如果相应的人流密集区域位置获取相关度图像并在相应位置进行特征标记,执行步骤 S1-5;

S1-5,设置人流密集区域日志,根据用户需求提取该人流密集区域的属性信息,进行相似度计算,利用人体特征图相似度计算查询相似度,利用人脸特征图像相似度计算查询相似度,直至日志相似度与查询相似度收敛;通过采用匹配权重α来平衡默认的人体特征图像和人脸特征图像相关度和用户定义相关度衡量结果值

D[i,j]=maxFi,j(1-α)·P(i,j)+α·P(i,j,rx,y)+minFi,j其中,maxFi,j人体特征图像和人脸特征图像的变化度的最大值,minFi,j人体特征图像和人脸特征图像的变化度的最小值,P(i,j)为人流密集区域初始判断决策值,P(i,j,rx,y)为人流密集区域结果判断决策值,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,其中初始判断决策值是根据历史特征图像数据进行密集区域的初始判断,对于结果判断决策值是通过S1-1至S1-5判断之后进行优化后的判断决策值。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。

尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号