首页> 外文期刊>電子情報通信学会技術研究報告 >First Person VisionのためのST-patch特徴を用いた自己動作識別
【24h】

First Person VisionのためのST-patch特徴を用いた自己動作識別

机译:使用ST-patch功能对第一人称视觉进行自我运动识别

获取原文
获取原文并翻译 | 示例
       

摘要

近年,映像中から人の動作を認識する研究が盛んに行われている.しかし,従来法の多くは人を外側から撮影しているため,行動意図の認識は困難である.このような問題に対し.First Person Visionというアプローチが提案されている.これは,Inside-Outカメラと呼ばれる2つのカメラが搭載されている装置を人の頭部に装着し.人の視界を観測するシーン映像と,眼球を観測した眼球映像から人の行動意図を認識する試みである.本稿では,このFirst Person Visionを実現するために,Inside-Outカメラを用いて撮影したシーン映像のみから大域的ST-patchと局所的ST-patchを用いて特徴を算出し,セルチクラスのBoosting手法であるJoint Boostingを用いて歩行時における6種類の動作識別を行う.評価実験の結果.提案手法はオプティカルフローを用いた比較手法よりも識別精度が27.3%向上した.%Much research has been devoted in recent years to recognizing human action from video images. Most existing methods, however, take video of people from the outside making it difficult to understand behavioral intention. The First Person Vision approach has been proposed in response to this problem. In this approach, a device consisting of two cameras collectively called an "inside-out camera" is attached to the head of a person to obtain "scene video" that captures the person's visual field and "eyeball video" that observes one of the person's eyeballs. These video streams are used as a basis for understanding that person's behavioral intention. With the aim of realizing First Person Vision, we here calculate features using a global ST-patch and a local ST-patch from scene video and attempt to distinguish six types of actions while walking using Joint Boosting. Results of a comparison experiment revealed that the proposed method improved the accuracy of distinguishing actions by 27.3% compared to an optical-flow method.
机译:近年来,已经进行了许多关于识别图像中的人体运动的研究,但是由于大多数常规方法都是从外部拍摄人体的,因此很难识别行为意图。另一方面,已经提出了一种被称为第一人称视觉的方法,其中将装备有两个被称为Inside-Out相机的相机的设备安装在人的头上。在本文中,为了实现此第一人称视觉,在本文中,仅从由Inside-Out相机捕获的场景图像中使用了全局ST色块。利用局部ST-patch算法对特征进行计算,并采用凯尔特级的助推方法Joint Boosting对步行过程中的六种运动进行识别,评估实验结果,并利用光流对提出的方法进行比较。近年来,许多研究致力于从视频图像中识别人的行为。然而,大多数现有方法都是从外部拍摄人的视频,这使得人们难以理解行为意图。针对此问题,已经提出了第一人称视觉方法。在这种方法中,将由两个照相机(统称为“倒置式照相机”)组成的设备连接到人的头部,以获取“场景视频”来捕获人的视场和观察一个人眼球之一的“眼球视频”。这些视频流是为了实现第一人称视觉,我们在这里使用场景视频中的全局ST补丁和局部ST补丁来计算特征,并尝试在步行时区分六种类型的动作联合助推:比较实验的结果表明,与光流法相比,该方法将动作识别的准确性提高了27.3%。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号