首页> 外文期刊>電子情報通信学会技術研究報告 >Web情報からのメディア特徴量分類によるメタデータ抽出手法
【24h】

Web情報からのメディア特徴量分類によるメタデータ抽出手法

机译:通过分类媒体特征从Web信息中提取元数据的方法

获取原文
获取原文并翻译 | 示例
       

摘要

Recently, multi-media Web-services including video sharing sites have become popular. And a lot of research that applies data acquired from devices such as cameras and microphones to context aware services is being performed in the fields of Life-Log and sensor networks. On the other hand, the common platform that can collect context data from any users' terminals and enable developers to make profitable service easily is needed. A variety of analytical techniques has been proposed for recognizing various patterns in the raw data because video and audio data include a larger volume of information than other sensor data. However, watching in person a huge amount of media data has been necessary to create training data for pattern learning. In addition, those techniques were not suitable for processing with the server because the processing load is large. Thus, we proposed a method of acquiring supervised data from a video sharing site where users can make comments on any video clip because various comments are generated. However, our conventional method recognized wrong results when the system gets media data that is different from the training media data. In this paper, we proposed the improvement technique that can recognize the appropriate results in the partial feature space by categorizing the feature data.%近年、広帯域NWの普及に伴い、動画共有サイトを始めとするメディア系Webサービスの利用が拡大しており、ライフログなどの分野においても映像/音声をセンサとした研究が盛んに行われている.このような流れの中、ユーザの端末に依存せずにコンテクストを収集し、有益なサービスを簡単に開発し易くするための共通プラットフォームの必要性が挙げられるようになってきている.特に映像データは、非常に多様な意味付報を内包しており、そのため従来から様々な意味抽出の手法が提案されているが、情報量の多さから処理負荷が大きくサーバ側での処理に向かなかった.また共通化のためには、認識パターンが多種多様であるため膨大な訓練データを人手で作成しなければならないことも問題であった.本稿では、Web上の動画共有サイトと連携して自動的に訓練データを獲得し、サイト上のコンテンツの特徴量をモデルに合わせて分類することで、サーバ処理に親和性の高い低負荷なメディアデータ認識手法について提案する.
机译:近来,包括视频共享站点的多媒体Web服务已经变得流行。在生命记录和传感器网络领域,正在进行大量的研究,这些研究将从相机和麦克风等设备获取的数据应用于上下文感知服务。另一方面,需要一种可以从任何用户的终端收集上下文数据并使开发人员轻松地实现盈利服务的通用平台。已经提出了多种分析技术来识别原始数据中的各种模式,因为与其他传感器数据相比,视频和音频数据包含的信息量更大。然而,亲自观看大量媒体数据对于创建用于模式学习的训练数据是必需的。另外,这些技术不适合与服务器一起处理,因为处理负担很大。因此,我们提出了一种从视频共享站点获取监督数据的方法,由于生成了各种注释,因此用户可以在任何视频剪辑上进行注释。但是,当系统获取与训练媒体数据不同的媒体数据时,我们的常规方法会识别错误的结果。本文提出了一种改进的技术,可以通过对特征数据进行分类来识别部分特征空间中的适当结果。こ大しており,ライフログなどの分野においてもル/音声をセンサとした研究が盛んに行われている。このような流れの中,ユーザの端末に依存せずにコンテクストを收集し,有益な特に映像データは,非常に多様な意味付报を内包しており,そのため従来から様々な意味抽出また共通化のためには,认识パターンが多种多様であるため膨大な训练データ本稿では,Web上の动画共有サイトと连携して自动的に训练データを获得し,サイト上のコンテンツの特徴量をモデルに合わせて分类タとで,サーバ处理に亲和性の高い低负荷なメディアデータ认识手法について实施する。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号