首页> 外文OA文献 >Improving robot vision models for object detection through interaction
【2h】

Improving robot vision models for object detection through interaction

机译:通过交互改进用于物体检测的机器人视觉模型

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。
获取外文期刊封面目录资料

摘要

We propose a method for learning specific object representations that can be applied (and reused) in visual detection and identification tasks. A machine learning technique called Cartesian Genetic Programming (CGP) is used to create these models based on a series of images. Our research investigates how manipulation actions might allow for the development of better visual models and therefore better robot vision. This paper describes how visual object representations can be learned and improved by performing object manipulation actions, such as, poke, push and pick-up with a humanoid robot. The improvement can be measured and allows for the robot to select and perform the `right' action, i.e. the action with the best possible improvement of the detector.
机译:我们提出了一种学习特定对象表示的方法,该方法可以在视觉检测和识别任务中应用(和重用)。一种称为笛卡尔遗传编程(CGP)的机器学习技术用于基于一系列图像创建这些模型。我们的研究调查了操纵动作如何允许开发更好的视觉模型,从而开发更好的机器人视觉。本文描述了如何通过执行对象操纵动作(例如用人形机器人进行戳戳,推动和拾取)来学习和改善视觉对象表示。可以测量这种改进,并允许机器人选择并执行“正确”的操作,即,对检测器进行尽可能最佳改进的操作。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号