首页> 中国专利> 一种剧场动态海报的生成与展示系统

一种剧场动态海报的生成与展示系统

摘要

本发明提出了一种剧场动态海报的生成与展示系统,属于剧场动态海报设备技术领域,包括系统平台,系统平台包括图像捕捉模块、功能菜单模块、动态海报展示模块、红外传感器区,通过红外传感器判断用户目标与系统之间的实际距离;当实际距离大于标准距离时,系统为动态海报模式,即用户目标处于较远距离,系统通过图像捕捉模块捕捉用户目标的手势和图像特征作为输入来控制系统。在动态海报的展示过程中,多媒体技术、人工智能图像识别技术以及体感技术的广泛应用,增强了剧场海报呈现的多样性和互动性;海报与演出的剧目相结合的展示模式,可以调动观众观演的积极性,使观众对剧目有更大的兴趣和更深的了解,因此拥有非常重要的意义。

著录项

  • 公开/公告号CN113191403A

    专利类型发明专利

  • 公开/公告日2021-07-30

    原文格式PDF

  • 申请/专利权人 上海戏剧学院;

    申请/专利号CN202110408710.8

  • 发明设计人 朱云;陈晔;

    申请日2021-04-16

  • 分类号G06K9/62(20060101);G06K9/46(20060101);G06N3/04(20060101);G06N3/08(20060101);G06T7/11(20170101);G06T7/80(20170101);

  • 代理机构31355 上海思牛达专利代理事务所(特殊普通合伙);

  • 代理人雍常明

  • 地址 200040 上海市静安区华山路630号

  • 入库时间 2023-06-19 12:02:28

说明书

技术领域

本发明涉及剧场动态海报设备技术领域,具体为一种剧场动态海报的生成与展示系统。

背景技术

在海报的制作与展示中,剧场海报一般多被视为张贴在柱子或墙上等处的印刷宣传品,是展示在公共场所的告示,大多以二维静态形式来传达信息。剧场海报随着社会、科技、媒体等的发展而发展,表现形式已从手绘发展到当今的运用电脑合成技术来制作。但国内的剧场海报还有明显的不足之处,由于国内没有专门的剧场海报设计公司,一些广告或平面设计的公司只是兼做剧场海报设计业务。绝大多数设计公司的平面设计人员也只会做一些添加文字、处理图形和简单的排版工作,无法负责剧场海报的整体规划和设计。研究对象视觉平面化,还只是停留在二维平面上,只是把文字、明星照片或图案等视觉元素通过电脑设计软件加以影像特效处理及版面编排。而现在,LED大屏幕逐渐取代了墙和柱子,成为了剧场海报的展示平台。海报以二维图片的形式,在屏幕中滚动播放。工作人员将图片复制到U盘或者LED的存储空间内,通过屏幕提供的图片或者视频播放器实现滚动播放。

在人机交互相关技术方面上,人机交互是用户与计算机之间使用某种对话语言,以一定的交互方式,实现用户与计算机之间进行信息交互。现阶段在多通道、多媒体的智能人工交互方面,利用人的多种感觉通道和动作通道,如语音、手势、表情等,以并行、非精确的方式与计算机进行交互,主要包括基于视觉的手势识别和增强现实技术。

基于视觉的手势识别方法是通过摄像头采集彩色图像,然后经过计算机对彩色图像进行分析与处理,最终达到手势识别。通常情况下,识别方法分为五个阶段:手势图像的采集、手势图像的分割、手势跟踪、特征提取和手势识别。

增强现实技术,能够将真实世界信息和虚拟世界信息结合在一起,把原本在现实世界的一定时间空间范围内很难体验到的实体信息、通过计算机技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,从而实现对现实的增强。观众通过增强现实眼镜或者头盔式显示器查看信息,并可以通过语音指令,实现拍摄照片、发送信息等功能。

在人工智能图像识别技术上,随着计算机硬件性能的提升,深度学习在计算机视觉中的应用备受青睐。传统的图像识别技术的通常步骤为图像预处理,特征提取,分类器设计和推理预测与识别,在这种传统分类模式中,分类准确性受限于提取的特征,而且过程复杂繁琐工作量大,准确度难以达到理想水平。与传统的识别方法相比,基于深度学习的卷积神经网络(CNN)的应用实现了端到端的从原始训练数据开始,直接指向于输岀,最后的分类结果由输出层的数据直接输出。这种方法不提取显式的图像特征,而是把非结构化的原始图像不作处理直接作为网络的输入,卷积神经网络对应的特征提取层对图像自动进行提取特征,分类性能更优越。

目前,基于深度学习的图像分析在医疗、工业、国防武器等方向得到成熟的工业级应用,在艺术及展览展示等领域应用较少。

传统的图像识别方法通常是人工进行特征提取,如HOG,SIFT配合支持向量机(SⅥM)对目标进行检测识别,由于每一类的目标都需要人工进行选定特征,工作量会非常大,而且检测仼务种类繁多时候完全不能满足要求。

发明内容

针对背景技术中指出的问题,本发明提出一种剧场动态海报的生成与展示系统。

本发明的技术方案是这样实现的:

一种剧场动态海报的生成与展示系统,包括系统平台,其特征在于:所述系统平台包括图像捕捉模块、功能菜单模块、动态海报展示模块、红外传感器区,通过红外传感器判断用户目标与系统之间的实际距离,将实际距离与标准距离相对比,其中标准距离设为固定值;

当实际距离大于标准距离时,系统为动态海报模式,即用户目标处于较远距离,系统通过图像捕捉模块捕捉用户目标的手势和图像特征作为输入来控制系统;

当实际距离小于标准距离时,系统为人工操作模式,即用户目标通过功能菜单模块来选择和翻阅剧场海报内容,查看剧场剧目的详细信息。

本发明进一步设置为:所述系统平台通信连接用户终端。

本发明进一步设置为:所述图像捕捉模块是通过采用基于YOLO v2算法模型的快速识别定位方法来实现用户目标实时检测识别,用于检测识别用户目标的手势和图像特征;

所述基于YOLO v2算法模型的快速识别定位方法包括以下步骤:

S1.设计基于YOLO v2算法的用户目标实时检测识别系统;

S2.设计用户目标实时检测识别系统软件,将软件应用到系统平台中;

本发明进一步设置为:在所述步骤S1中,包括,

建立YOLO v2算法模型并确定YOLO v2算法模型主要参数,基于K-means聚类算法确定了先验框宽高维度;

分析模型损失函数和网络训练方法,推导批次归一化前向传播和反向传播,并求解YOLO v2算法权重值、偏置与线性缩放参数的梯度;

将整张图像信息作为直接输入,把目标识别问题转化为回归问题,YOLO v2算法首先用s×s网络把输入图像分割成s×s个单元格,通过网络训练方法学习提取每个单元格的特征,若检测到目标落在其中某个单元格中,则相应的单元格负责检测识别该目标的任务,对于输出特征图,直接预测每个网络的位置,假定存在N个边界框,先可以得到先验框中心坐标(x

本发明进一步设置为:在所述步骤S2中,包括,

基于Qt的UI图形化界面设计用户目标实时检测识别系统软件,用于测试系统的性能,软件界面包含界面显示控件、相机标定控件、参数设置控件;

软件在Ubuntu系统环境下运行,包括以下步骤,

S201.系统初始化;

S202.相机标定;

S203.读入一帧图像,判断是否为空?

S204.若为空,则结束;若不为空,则进行目标检测并输出标记框,重新回到步骤S203中。

综上所述,本发明的有益效果为:

1.在动态海报的展示过程中,多媒体技术、人工智能图像识别技术以及体感技术的广泛应用,增强了剧场海报呈现的多样性和互动性;海报与演出的剧目相结合的展示模式,可以调动观众观演的积极性,使观众对剧目有更大的兴趣和更深的了解,因此拥有非常重要的意义。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本发明的Darknet-19网络结构图;

图2为本发明的预测边框图;

图3为本发明的基于YOLO v2算法目标检测过程图;

图4为本发明的其他关键参数设置代码图;

图5为本发明的实时监测识别系统功能流程图;

图6为本发明的基于Qt的UI图形化实时监测识别软件界面图;

图7为本发明的系统应用产品的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

如下参考图1-7对本发明进行说明:

一种剧场动态海报的生成与展示系统,包括系统平台,系统平台包括图像捕捉模块、功能菜单模块、动态海报展示模块、红外传感器区,如图7所示。当用户目标来到系统前,通过红外传感器判断用户目标与系统之间的实际距离,将实际距离与标准距离相对比,其中标准距离设为固定值;

当实际距离大于标准距离时,系统为动态海报模式,即用户目标处于较远距离,系统通过图像捕捉模块捕捉用户目标的手势和图像特征作为输入来控制系统;

当实际距离小于标准距离时,系统为人工操作模式,即用户目标通过功能菜单模块来选择和翻阅剧场海报内容,查看剧场剧目的详细信息。

另外,系统平台通信连接用户终端,用户目标可以通过手机来操作系统。

作为优选结构,当系统为动态海报模式时,系统要检测识别出用户目标的手势操控或者其他图像特征,从而操控系统的界面。图像捕捉模块是通过采用基于YOLO v2算法模型的快速识别定位方法来实现用户目标实时检测识别,用于检测识别用户目标的手势和图像特征。

基于YOLO v2算法模型的快速识别定位方法包括以下步骤:

S1.设计基于YOLO v2算法的用户目标实时检测识别系统。

S2.设计用户目标实时检测识别系统软件,将软件应用到系统平台中。

在设计基于YOLO v2算法的用户目标实时检测识别系统中,通过说明YOLO v2算法模型的网络结构、算法的原理与实现、具体的检测原理及流程来建立YOLO v2算法模型并确定YOLO v2算法模型主要参数,基于K-means聚类算法确定了先验框宽高维度。

YOLO v2算法的原理说明:

YOLOⅴ2的基础模型就是Darknet-19,如图1所示,为Darknet-19网络结构图,网络结构包含19层卷积层、5层最大值池化层。

YOLO把整张图像信息作为直接输入,在输岀层输岀目标的位置坐标和目标位于该位置的置信度评价;提取图像特征的过程中不使用滑动窗;在网络训练过程中减少了人为因素导致的偏差;YOLO算法的整个训练和检测过程采用的是一个完全的端到端理念,可单独作为目标物块检测识别框架。

YOLO v2具体网络结构如表格1所示。

表格1:YOLO v2模型网络结构表

YOLO算法首先用s×s网络把输入图像分割成s×s个单元格,通过训练学习提取每个单元格的特征,若检测到目标落在其中某个单元格中,则相应的单元格负责检测识别该目标的任务,对于输出特征图,直接预测每个网络的位置,假定存在N个边界框,先可以得到先验框中心坐标(x

如图2所示,为预测边框图。

在YOLO算法训练的早期阶段,边框预测不稳定,其预测表达式为:

b

b

其中,t

b

b

其中,t

置信度由边界框与对应的待检测识别的目标物体概率及该边界框和真实位置的交叉程度对该边界框的预测精度进行表征。其计算表达式为:

C=P

式中,P

(1)把输入图像分割成13×13个单元格

(2)每个单元格负责预测5个边界框,对于本发明的检测识别任务,A=1,从而得到预测长度为s

(3)得到检测识别目标物体的最佳位置,对s

P

基于YOLO v2算法的检测原理及过程如图3所示,为基于YOLO v2算法目标检测过程图。

YOLO v2模型主要参数的确定:

YOLOⅴ2中,使用K-means聚类方法提取更匹配样本目标对象尺寸的先验框尺度,将聚类K值作为先验框候选框个数。以聚类中心的宽高值作为这个先验框的宽高。K-means聚类方法伪代码如下:

本发明针对边框尺度的聚类,采用交并比指标度量各边框与聚类中心边框的距离:

d

公式中,μ

表格2:聚类结果表

图4为YOLO v2模型部分其他关键参数设置代码图。

针对于网格训练:

一个深层卷积神经网络实际上就是包含若干个隐含层的多层感知机。一般地,在多层神经网络中,隐含层的某一个神经元与上一层的局部神经元相连,其中每一个连接对应一个权重值。于是,每一对相连的两个神经元之间会对应一个权重参数值W

求解得到损失函数最小值的常用方法是梯度下降策略,以目标的负梯度方向对神经网络参数进行调整。假设J(W)是一个以W为自变量的损失函数,其中W表示神经网络的一组权重值。采用梯度下降法计算最小损失函数具体过程为先为W设置一个初始值W

其中,

在训练卷积神经网络过程中,根据计算神经网络损失函数数据量的不同,梯度下降法可分为小批量梯度下降法、批量梯度下降法和随机梯度下降法。

实际上一个神经网络可以从高维复合函数的角度来看,该函数有可能会存在鞍点,鞍点可能会导致采用梯度下降策略无法找到损失函数全局最小点。通过权重值参数更新公式可以知道,学习率η和权重参数W的梯度是更新过程的主要因素,因此在神经网络训练过程中需要重点关注。

对于学习率,如果选取的过小会导致神经网络目标函数收敛速度较慢,选取过大可能会导致目标函数震荡或发散,从而无法找到目标函数最小值。因此神经网络学习率的选取策略或更新策略至关重要。常见的学习率更新策略有动量优化(MomentumOptimization)、涅斯捷罗夫梯度加速(Nesterov Accelerated Gradient,NAG)、Ada Grad、RMSprop等。

对于神经网络各个权重参数W

针对于损失函数:

YOLO v2的损失函数采用均方和误差指标,由三部分组成坐标误差、IOU误差和分类误差。在计算模型IOU误差时,包含目标的单元格与不包含目标的单元格,二者的IOU误差对网络损失函数值的影响是不同的。若采用的权值相同,那么不包含目标的单元格的置信度近似为0,间接地放大了包含目标物体的单元格的置信度误差在计算神经网络参数梯度时的影响。对于相等的误差值的目标物体的识别,较大目标物体的误差对检测的影响应小于较小目标物体误差对检测的影响。这是由于相同的位置偏差占较大目标物体的比例远小于同等偏差占较小目标物体的比例。YOLO v2在训练过程中损失函数如下式所示:

其中,(x

推导出批次归一化前向传播和反向传播。

在批次归一化(BN)前向传播中,批次归一化加快神经网络训练的收敛速度,且有效提升了模型精度,并推导分析YOLO v2算法中批次归一化的前向传播过程。

假设YOLO v2算法模型第l层网络的输出为α

第l层网络数据的输入α

计算得到批尺寸个Z

计算得到批尺寸个z

将批尺寸个z

由于经过方差

最后

YOLO v2算法第l层网络前向传播过程输入输出之间的关系描述如下:

在批次归一化(BN)反向传播中,反向传播的目的是求解网络的梯度用于网络训练,求解权重和偏置梯度过程中需要计算链式求导,所以首先计算损失函数f(Loss)对Z

损失函数f(Loss)对Z

式中,分别对

进一步地得到:

对公式进一步简化,得到损失函数对zl的方差求导结果:

损失函数f(Loss)对Z

式中间变量

对式简化处理得到:

对式进一步展开得到:

对式进一步求解得到损失函数对Z

损失函数f(Loss)对

对式进一步求解得到:

对式进一步求解得到:

对式应用链式求导法则得到:

对式进一步求解得到损失函数对

计算YOLO v2模型反向传播权重值的梯度:

计算YOLO v2模型反向传播偏置的梯度:

计算YOLO v2模型反向传播参数的δ

YOLO v2算法模型先在ImageNet数据集上进行预训练,得到分类网络和初始的权值参数,以此网络和参数为基础,然后对本发明中针对特定项目的HUSTC605数据集的训练集进行第二次训练,得到新的网络模型。本发明模型训练时关键参数设置如表格3所示:

表格3:YOLO算法模型训练时关键参数设置表

在设计用户目标实时检测识别系统软件中,系统基于Qt的UI图形化界面进行了界面设计,软件在Ubuntu系统环境下运行,如图5所示,为实时监测识别系统功能流程图,具体设计思路包括以下步骤:

S201.系统初始化;

S202.相机标定;

S203.读入一帧图像,判断是否为空?

S204.若为空,则结束;若不为空,则进行目标检测并输出标记框,重新回到步骤S203中。

采用交互界面设计,实时检测识别的交互界面包含界面显示控件、相机标定控件、参数设置控件等元素,同时,实时检测识别软件还有相机标定模块,其功能是标定有效区域用于目标物块坐标定位。具体界面如图6所示,为基于Qt的UI图形化实时监测识别软件界面图。

检测识别开始时,设置完参数,点击“打开摄像头”模块,相机拍摄到的画面会实时传到窗口中,左右各一个窗口。其中,左边画面窗口会显示摄像头拍摄到的原始实时视频,右边会显示系统实时检测识别结果。点击“开始检测”模块,系统开始实时检测识别,目标位置坐标会实时显示在界面中。

以上所述的仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号