首页> 外文OA文献 >Localización y mapeo visual monocular para robot móvil terrestre aplicado a la inspección ultrasónica aeronáutica
【2h】

Localización y mapeo visual monocular para robot móvil terrestre aplicado a la inspección ultrasónica aeronáutica

机译:陆上移动机器人在航空超声检查中的定位和单目视觉制图

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método deudinspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existenudaplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, noudle resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite aludrobot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensorudsituada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales queuddelimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto deludrobot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
机译:在服务机器人技术领域,当前没有自动解决方案可以在航空公司维护操作期间对飞机的复合材料零件进行超声波检查。无损超声检查方法中新的干声耦合技术的发展使得与传统技术相比,可以将它们与低成本解决方案一起使用,而不会失去检测结构缺陷的有效性。复合材料。尽管此技术有手动解决方案的应用,可用于复合材料的开发和制造阶段,也可用于航空领域以外的金属组件的远程控制解决方案,但是,没有用于非金属检查的自动化解决方案。一旦飞机被交付给航空公司,超声就会破坏由复合材料制成的飞机区域。本硕士学位论文的目的是基于计算机视觉,评估一种机器人解决方案的定位系统,该解决方案适用于航空公司自己使用新的干声耦合技术对飞机进行超声结构检查的机器人,寻求减少维护操作时间和成本的优势。提出了一种小型自主移动机器人作为解决方案,该解决方案具有基于SLAM视觉单目技术的全局位置控制,使用外部视觉标记来划定检查区域。假定检查飞机的表面可以认为是平坦和水平的元素,例如水平稳定器或机翼的表面。这种假设在这些组件的有限区域中是完全可以接受的,并且就项目目的而言,没有通用性。拟议中的移动机器人是两自由度三轮车陆地车辆,具有完整的车载单眼视觉系统,包括视觉处理和路径控制硬件。两个前轮是驱动轮,空转的第三个轮仅用作支撑。差速转向使机器人无需位移即可旋转,这是通过左右驱动轮之间的速度差实现的。车载超声检查系统由信号处理和记录硬件以及同轴且位于驱动轮轴之间的轮毂传感器组成,以便在中心进行测量机器人旋转。提出的视觉控制使用基于位置的“查看并移动”策略执行,从图像中提取视觉特征,使用视觉SLAM计算机器人的全局位置,并使用算法计算机器人的运动。关于路径间距参考的位置定向控制。轨迹是从定义检查区域的可视标记图计划的,也由可视SLAM提供。为了验证所提出的解决方案,已决定开发udrobot和外部视觉标记的物理原型,并将对其进行验证测试,以替代使用模拟软件环境,包括识别工作,轨迹的规划和路线,自动记录移动机器人的实际位置以及SLAM定位系统提供的位置。选择原型的原因是为了验证解决方案,以应对在仿真环境中很难建模的物理效应,这种物理效应源自视觉系统的构造性限制,例如光学畸变或传感器饱和度,以及这些限制。影响运动学模型的移动机器人的构造力学,例如车轮打滑或电动机的动力波动。用于验证测试的外部视觉标记原型是一个垂直的平面符号(黑色和白色),由矩形黑色边框组成,其中包含一系列黑色正方形标记,其排列方式不同每个标记,以便对其进行识别。用于验证测试的移动机器人的原型已命名为VINDUSTOR:“可视控制的非破坏性超声波检查器”。它的机械结构是根据LEGO©MINDSTORMS NXT 2.0教育机器人交易平台开发的,该平台包括用于驱动两个驱动轮的两个伺服电机,其控制器,前轮和后惰轮。机械结构采用LEGO©零件专门设计,可运送一台小型便携式PC,用于视觉处理和运动控制,而视觉捕获系统则由两个低成本的网络摄像头组成,一个放置在前位置,另一个在后位置,以增加视角。原型的总重量未达到2 Kg,最大尺寸为20厘米长,25厘米宽和26厘米高。移动机器人原型具有可视类型控件。控制策略是动态的“查看并移动”类型,其中将依次执行外部循环,图像中特征的提取,机器人位置的估计以及控制的计算,以及内部回路,控制伺服电机。图像采集策略基于车载摄像机的单眼系统。图像解释策略基于三维位置,在三维位置中,控制目标是在工作空间而不是图像中定义的。控制律是基于姿势的,将机器人的速度与位置的误差相关联,该误差与路径的步距参考有关。该路径是从外部视觉标记图生成的。始终使用视觉SLAM技术执行机器人相对于外部参考系统和标记图的定位。先验地在未知环境中对移动机器人进行自我定位是机器人技术中最重要的挑战之一,近几十年来,它已经解决了这一问题,提出了一种数值问题的表述,并且在各种情况下都可以实现。空中机器人到封闭环境中的机器人,在这方面有许多研究和出版物。最早的SLAM同时定位和地图绘制技术是1989年开发的,它更多地是作为一种概念而不是一种独特的算法,因为它的目的是管理由兴趣点位置组成的环境地图,该地图仅从来自在环境的检测和机器人的里程计中,使用概率技术来增加传感器的位置信息,并在受传感器噪声限制的过程中获得机器人相对于环境的姿态,并使用概率技术来提高估计的精度。基于所使用的概率算法,SLAM技术可以分为基于卡尔曼滤波器,粒子滤波器及其组合的技术。卡尔曼滤波器在传感器的测量结果和从传感器获得的间接测量结果中都考虑了高斯概率分布,因此它们使用一组方程式来估算过程的状态,从而最大程度地减小均方误差,即使无法精确地知道系统模型,它还是使用最广泛的Kalman滤波器扩展到非线性模型。粒子过滤器会在没有模型的情况下考虑传感器的测量中的概率分布,该模型由一组随机样本或粒子表示,因此它们使用顺序蒙特卡洛方法以某种方式估算机器人的姿态和地图迭代,最常用的是Rao-Backwell,它允许使用均方误差准则获得优化的估计量。在结合两种类型的概率过滤器的技术中,FastSLAM脱颖而出,该算法可通过粒子过滤器估算机器人的位置,并使用扩展卡尔曼过滤器估算感兴趣点的位置。 SLAM技术可以使用提供位置信息的任何类型的传感器,例如激光,声纳,超声或视觉。基于视觉的传感器可以通过立体视觉技术或单眼视觉技术获得距离测量值。与其他传感器相比,使用基于视觉的传感器的优势在于可以通过图像提供全局信息,不仅可以提供距离测量,还可以提供其他信息(例如纹理或图案)以及硬件的承受能力。但是,它的主要缺点是,复杂的三维检测,描述,匹配和重建算法所需的高计算成本,而复杂的三维检测,描述,匹配和重建算法则需要获得到多个感兴趣点的距离测量。 SLAM的主要缺点是:使用大量视觉特征时,计算成本高;从传感器噪声,概率分布的建模和处理中得出的错误面前的一致性。,这可能导致过滤器故障。由于基于扩展卡尔曼滤波器的SLAM是最常用的技术之一,因此它首先被选作机器人定位系统的解决方案,并实施了传感器的测量和机器人运动的实施方案在将其具体化为原型之前,先通过软件对其进行仿真。进行仿真时要考虑到八个视觉标记的排列,这些标记始终提供八次距离测量,并具有与实际视觉传感器的误差相当的随机噪声,以及机器人的运动模型,该模型通过随机噪声考虑了车轮打滑。在仿真过程中,结果表明,通过SLAM-EKF算法估算出的位置具有校正通过测距法获得的位置的趋势,但不足以给出可接受的结果,而没有收敛到足够接近于模拟的机器人位置和标记。在仿真之后得出的结论是,由于里程传感器的高度不确定性和视觉传感器提供的标记位置测量的高度不确定性,SLAMEKF算法无法提供足够的精度收敛。在获得这些结果之后,已寻求替代解决方案。从粒子滤波器的基本思想开始,有人提出用表示非零概率区间的二元函数中得出的等概率分布来代替扩展卡尔曼滤波器考虑的高斯概率分布。过滤器的应用假定所有可用的非零概率函数的叠加,因此结果是存在某个测量概率的区间。随着该过滤器的有效性随着可用测量次数的增加而增加,已经提出利用三边测量法从每对可用标记位置测量中获取机器人位置的测量值。通过统计三边测量法(SLAM-ST)进行的SLAM是本论文提出的这种解决方案的调用方式。与SLAM-EKF算法一样,已经执行了SLAM-ST算法的实现,其中在将传感器具体化之前,模拟了传感器的测量值和机器人的运动。为了在相同条件下以相同的考虑进行模拟,以与使用SLAM-EKF算法获得的结果进行比较。在仿真过程中,结果表明,与SLAM-EKF算法相比,SLAM-ST算法估计的位置呈现出更大的趋势来校正由测距法获得的位置,从而使收敛到解足够接近解的位置。模拟的机器人和标记位置。仿真后得出的结论是,在里程表的高度不确定性以及标记相对于机器人的位置的测量中,SLAM-ST算法比SLAM-EKF算法提供了更好的结果,并且精度较高取得的成就表明在原型中实施的可行性。原型中SLAM-ST算法的实现已与单目视觉传感器,里程表模型和轨迹控制的实现一起进行。单目视觉传感器是SLAM系统的元素,负责通过摄像头获得的图像,通过允许检测和识别视觉标记的图像处理技术,提供相对于外部视觉标记的机器人的位置它们存在于捕获的图像中,并基于其实际大小的先验知识,通过单眼三维重建,从视觉特征中推断出视觉标记相对于相机的位置。为此,已使用数学针孔照相机模型,并在验证了所需的高计算成本之后,通过校准传感器而不是使用图像校准来考虑实际照相机的失真。对所捕获图像的校正,从而对提取的视觉特征而不是对整个图像进行校正。里程表模型是SLAM系统的元素,负责基于里程表传感器(通常是车轮编码器)提供的信息,提供对机器人增量运动的估计。通过原型中使用的机器人的类型,已经使用了单轮式机器人的运动学模型和差速器式两轮移动机器人的里程模型,其中平移和旋转是由驱动轮的速度差决定的,车轮和地面之间存在打滑。但是,由于在机器人运动期间不一致发生的外部原因导致车轮出现打滑,这些外部原因由于动态效应导致车轮与地面的接触不足。为了在所有这些打滑情况下保持里程表模型的有效性,已经考虑了基于代表最常见打滑情况的测试的不确定性模型。路径控制是负责向移动机器人提供移动命令的元素。在原型中实现的控制基于姿势,使用相对于路径间距参考的位置和方向偏差作为输入。所使用的机器人的位置始终来自SLAM系统提供的估计,并且轨迹是根据限制工作空间的视觉标记图(即SLAM系统提供的图)的知识来计划的。车载视觉传感器在所捕获图像的稳定速度方面的局限性导致采用“凝视”策略实施控制,在该策略中,图像捕获是在静态位置进行的。为了评估原型的基于视觉的定位系统,已设计了验证测试,以定量评估其行为。该测试包括以下步骤:完全自主地检测工作区,计划一条可以完全转移的检查路径,执行其路径,同时记录移动机器人的实际位置以及SLAM视觉单目系统提供的位置。总是在视觉标记器位置和移动机器人位置相同的初始条件下进行了几次验证测试,以检查测试的可重复性。呈现的结果与对所有试验中的一组措施进行处理后获得的最悲观措施的考虑相对应。结果表明,考虑到整个工作空间,位置误差,SLAM系统提供的值与实际位置的测量值之间的差值处于20厘米的环境中。此外,在所有情况下,SLAM系统提供的不确定性值都大于此误差。这些结果得出这样的结论:基于Visual SLAM的定位系统通过统计三边测量算法,使用单眼视觉传感器和外部视觉标记,可以工作,相对于初始全局参照系和绘制视觉标记的位置,精度有限,但具有保守的不确定性,因为实际位置误差始终低于估计误差。但是,定位系统的精度结果不足以满足作为机器人解决方案应用于在役飞机超声结构检查的要求。从这个意义上讲,结果表明,将来这项工作的可能继续应该集中在提高移动机器人的定位精度上,而工作线则是旨在改善原型的动态行为,以及提高机器人的精度。视觉传感器提供的位置测量结果,以及优化SLAM算法的结果。这些未来的路线可能包括使用替代的机器人开发平台,探索互补的计算机视觉技术,例如视觉里程表,全向视觉,立体视觉或单眼捕捉的密集三维重建技术。 ,以及对替代SLAM算法的分析,条件是里程计模型和标记的位置测量的精度都有实质性的提高。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号