机译:移动机器人通过自适应目标检测实现室内场景识别
机译:动态室内环境中基于3-D激光的移动机器人场景测量和位置识别
机译:基于神经网络的可重训练框架,用于稳健的对象识别,并应用于移动机器人
机译:基于改进深度信息的移动机器人的快速对象分割方法
机译:室内场景的RGB深度图像分割和对象识别。
机译:利用基于Wi-Fi的定位方法的基于Wi-Fi的定位方法融合用于移动机器人的学习数据收集本地化和在室内空间中跟踪
机译:开发用于移动微型机器人的生物启发视觉系统:在本文中,我们提出了一种用于移动微型机器人的新型生物启发视觉系统。该处理方法从检测快速接近物体的蝗虫视觉中获取灵感。研究表明,蝗虫使用称为小叶巨型运动探测器的宽视野神经元来应对即将发生的碰撞。我们采用蝗虫的视觉机制来控制移动机器人。所选择的图像处理方法使用低成本且快速的aRm处理器在开发的扩展模块上实现。视觉模块放置在微型机器人的顶部以控制其轨迹并避开障碍物。几次进行的实验观察到的结果表明,开发的扩展模块和灵感视觉系统可用作避障和运动控制的视觉模块。