首页> 外文会议>Computer vision systems >Learning Contextual Variations for Video Segmentation
【24h】

Learning Contextual Variations for Video Segmentation

机译:学习上下文差异以进行视频细分

获取原文
获取原文并翻译 | 示例

摘要

This paper deals with video segmentation in vision systems. We focus on the maintenance of background models in long-term videos of changing environment which is still a real challenge in video surveillance. We propose an original weakly supervised method for learning contextual variations in videos. Our approach uses a clustering algorithm to automatically identify different contexts based on image content analysis. Then, state-of-the-art video segmentation algorithms (e.g. codebook, MoG) are trained on each cluster. The goal is to achieve a dynamic selection of background models. We have experimented our approach on a long video sequence (24 hours). The presented results show the segmentation improvement of our approach compared to codebook and MoG.
机译:本文涉及视觉系统中的视频分割。我们专注于在不断变化的环境的长期视频中维护背景模型,这仍然是视频监控中的真正挑战。我们提出了一种原始的弱监督方法来学习视频中的上下文变化。我们的方法使用聚类算法根据图像内容分析自动识别不同的上下文。然后,在每个群集上训练最新的视频分割算法(例如,码本,MoG)。目标是实现动态选择背景模型。我们已经在较长的视频序列(24小时)中对我们的方法进行了实验。呈现的结果表明,与码本和MoG相比,我们的方法在细分方面有所改进。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号