首页> 中国专利> 一种基于时空特征融合深度学习网络的视频行为识别方法

一种基于时空特征融合深度学习网络的视频行为识别方法

摘要

本发明公开了一种基于时空特征融合深度学习网络的视频行为识别方法采用独立的两个网络分别提取视频的时间和空间信息,每个网络都在CNN的基础上加入了LSTM学习视频时间信息,并以一定的策略将时间、空间信息融合。FSTFN比Tran提出的不引入时空网络的网络模型在数据集上准确率提升了7.5%,比普通双流网络模型数据集上准确率提升了4.7%且对视频采用分段的方式,每一个视频样本采样多个片段,输入CNN和LSTM组成的网络,通过覆盖整个视频的时间范围,解决了视频行为识别存在的长时依赖问题,在CNN末端引入视觉注意力机制,降低非视觉主体在网络模型中的权值,提高了视频图像帧中视觉主体的影响力,较好地利用了视频的空间特征。

著录项

  • 公开/公告号CN111950444A

    专利类型发明专利

  • 公开/公告日2020-11-17

    原文格式PDF

  • 申请/专利权人 北京师范大学珠海分校;

    申请/专利号CN202010796456.9

  • 发明设计人 杨戈;

    申请日2020-08-10

  • 分类号G06K9/00(20060101);G06K9/46(20060101);G06K9/62(20060101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构44650 珠海飞拓知识产权代理事务所(普通合伙);

  • 代理人刘利芬

  • 地址 519000 广东省珠海市高新区唐家湾金凤路18号

  • 入库时间 2023-06-19 08:56:41

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号