SciELO - Scientific Electronic Library Online

 
vol.16 issue2GENDER CLASSIFICATION BASED ON VOICE SIGNALS USING FUZZY MODELS AND OPTIMIZATION ALGORITHMSVIRTUAL ENVIRONMENT FOR THE DESIGN OF POSITION TRAJECTORY TRACKING CONTROLLERS OF REMOTELY OPERATED VEHICLES author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Iteckne

Print version ISSN 1692-1798

Iteckne vol.16 no.2 Bucaramanga July/Dec. 2019

https://doi.org/10.15332/iteckne.v16i2.2357 

Artículos de investigación e innovación

GENERACIÓN DE MAPA GLOBAL 2D Y SLAM USANDO LIDAR Y UNA ESTÉREO CÁMARA PARA EL SEGUIMIENTO DE MOVIMIENTO DE UN ROBOT MÓVIL

GLOBAL MAP GENERATION AND SLAM USING LIDAR AND STEREO CAMERA FOR TRACKING MOTION OF MOBILE ROBOT

Edwin Leonel Álvarez-Gutiérrez1 

Fabián Rolando Jiménez-López2 

1Universidad Pedagógica y Tecnológica de Colombia, Tunja, Colombia, edwin.alvarez03@uptc.edu.co.

2Universidad Pedagógica y Tecnológica de Colombia, Tunja, Colombia, fabian.jimenez02@uptc.edu.co.


Resumen

Uno de los temas de mayor atención en la robótica móvil está relacionado con la localización y mapeo de un robot en un entorno determinado, y el otro, asociado a la selección de los dispositivos o sensores necesarios para adquirir la mayor cantidad de información externa posible para la generación de un mapa global. El propósito de este artículo es plantear la integración entre un robot móvil terrestre tipo oruga, tareas de SLAM con dispositivos LiDAR y el uso de estéreo visión a través de la cámara ZED para la generación de un mapa global en 2D y el seguimiento del movimiento del robot móvil mediante elsoftwarede MATLAB®. El experimento consiste en realizar diferentes pruebas de detección para determinar las distancias y hacer el seguimiento de la posición del robot móvil en un entorno estructurado en interiores, para observar el comportamiento de la plataforma móvil y determinar el error en las mediciones. Los resultados obtenidos muestran que los dispositivos integrados cumplen satisfactoriamente con las tareas establecidas en condiciones controladas y en entornos interiores, obteniendo porcentajes de error inferiores al 1 y 4% para el caso del LiDAR y la cámara ZED, respectivamente. Se desarrolló una alternativa que resuelve uno de los problemas más comunes de la robótica móvil en los últimos años y, adicionalmente, esta solución permite la posibilidad de fusionarse otro tipo de sensores como los sistemas inerciales, encoders, GPS, entre otros, con el fin de mejorar las aplicaciones en el área y la calidad de la información adquirida desde el exterior.

Palabras clave: LiDAR; Mapa Global; seguimiento de movimiento; SLAM; robot móvil; visión estéreo

Abstract

One of the topics of greatest attention in mobile robotics is related to the location and mapping of a robot in a given environment and the other, associated with the selection of the devices or sensors necessary to acquire as much external information as possible for the generation of a global map. The purpose of this article is to propose the integration between a caterpillar-type land mobile robot, SLAM tasks with LiDAR devices and the use of stereo vision through the ZED camera for the generation of a 2D global map and the tracking of the movement of the mobile robot using the MATLAB®software. The experiment consists of performing different detection tests to determine distances and track the position of mobile robot in a structured environment indoors, to observe the behavior of the mobile platform and determine the error in the measurements. The results obtained show that the integrated devices satisfactorily fulfill the tasks established in controlled conditions and in indoor environments, obtaining error percentages lower than 1 and 4% for the case of the LiDAR and the ZED camera respectively. An alternative was developed that solves one of the most common problems of mobile robotics in recent years and, additionally, this solution allows the possibility of merging other types of sensors such as inertial systems, encoders, GPS, among others, in order to improve the applications in the area and the quality of the information acquired from abroad.

Keywords: LiDAR; Global Map; motion tracking; SLAM; mobile robot; stereo vision

1. INTRODUCCIÓN

La robótica móvil en los últimos años ha tenido grandes avances en aplicaciones industriales, de vigilancia, militares, medicina, agricultura, entre otros, cuya finalidad ha sido mejorar la calidad de vida de las personas 1) y (2. Es por ello que, uno de los temas de robótica móvil con mayores retos y al cual se la ha dedicado amplia investigación, es el seguimiento de los robots en tiempo real, tareas de mapeo y localización simultáneos (SLAM - Simultaneous Localization and Mapping) y la exploración de terrenos desconocidos por medio de plataformas terrestres o aéreas 3.

Uno de los requerimientos iniciales a la hora de realizar una aplicación en robótica móvil, radica en la selección apropiada de los materiales por utilizar como, por ejemplo, el tipo de plataforma móvil, los sensores y tecnologías que serán incorporadas y elsoftwarepara el desarrollo de los algoritmos para las actividades del robot en el entorno establecido, entre otros 4. Si bien, no existen protocolos definidos para la elección adecuada de cada sistema de acuerdo con cada aplicación, existen pautas que establecen las tecnologías más comúnmente usadas y los resultados obtenidos. Este trabajo se enfocó para ser aplicado en lugares interiores y por tanto las situaciones en entornos exteriores pueden obtener resultados que pueden variar.

Actualmente la mayoría de los robots comerciales usan dispositivos laser, que pueden ser 2D y 3D, para realizar tareas de SLAM (5). Dependiendo del dispositivo, se pueden realizar mapas del entorno en el cual se encuentre el robot. Sin embargo, las muestras tomadas están limitadas a la altura en la cual se dispone el sensor 2D, lo que permite que solo una parte del entorno pueda ser modelada, o para el caso del 3D por el costo de adquisición y recursos de computación. A causa de esto, se hacen fusiones con otros sensores, como por ejemplo los de ultrasonido o las cámaras de visión estéreo 4, permitiendo adquirir más información acerca del entorno, y de esta manera estimar la posición y realizar el seguimiento al movimiento del robot. Adicionalmente, se pueden incluir técnicas o metodologías para el posicionamiento del robot, como por ejemplo la odometría, dispositivos de navegación inercial, balizas activas, sistemas de posicionamiento global, entre otras 6), (7), (8.

Por otra parte, para realizar el seguimiento al robot se debe desarrollar un algoritmo, que permita observar el movimiento del robot en el mapa global generado en las tareas de SLAM y conociendo su entorno, identificar algún obstáculo 5. También, se podría proponer como complemento una interfaz gráfica, que pueda controlar de forma asistida el robot móvil a distancia o simplemente que visualmente permita al usuario observar el seguimiento móvil del robot, así como el mapa que va cambiando en tiempo real.

En este artículo, se propone la integración de una cámara estéreo y un dispositivo LiDAR (Light Detection and Ranging), para la generación de un mapa global visualizado a través de una interfaz gráfica desarrollada en el entorno de MATLAB®, que permita observar el comportamiento del robot terrestre y adicionalmente controlarlo de forma asistida. Se integra también una tarjeta de adquisición de datos Arduino® para el control de los drivers de la plataforma T900 4WD tipo oruga y, finalmente, el uso de sensores de ultrasonido para la detección de objetos en la parte no visible del robot, Fig. 1.

Fuente: Los autores.

Fig. 1. INTEGRACIÓN DEL SISTEMA PLANTEADO 

La estructura del documento se encuentra distribuido de la siguiente manera, en el capítulo 2, se describe la integración propuesta, partiendo desde la plataforma móvil, el sensor LiDAR, la cámara estéreo ZED, elsoftwareMATLAB® y el sistema de comunicación inalámbrico. En el capítulo 3, se representan y analizan los resultados obtenidos de los experimentos realizados en ambientes reales y la precisión de las mediciones de los dispositivos utilizados. Finalmente se concluye acerca del desempeño de la plataforma móvil.

2. INTEGRACIÓN PROPUESTA

2.1 Plataforma móvil

La mayoría de los robots móviles poseen características particulares que los hacen aptos para desarrollar una determinada tarea. De acuerdo con la aplicación se determina, por ejemplo, el tipo de rueda, el sistema de tracción y dirección, la forma física, e incluso el sistema sensorial del robot. En general los robots móviles distribuyen sus sistemas de tracción y dirección sobre los ejes de sus ruedas de acuerdo con las exigencias de velocidad, maniobrabilidad y características del terreno. La precisión y rapidez con que el robot móvil debe alcanzar su destino, implica tener un sistema de tracción confiable y un sistema de dirección que dé maniobrabilidad al robot 9 for a large class of possible configurations, they can be classified into five types, characterized by generic structures of the model equations. For each type of model the following questions are addressed: (ir, 10).

El sistema de locomoción es una de las primeras características de un robot que está condicionada por su entorno. De acuerdo con las características del mismo el robot puede ser terrestre con patas, con ruedas, con orugas, acuático, aéreo, entre otras. Uno de los parámetros que se tienen en cuenta para el diseño y selección de una plataforma móvil es el sistema de tracción y dirección, adicionalmente se tienen en cuenta factores como la maniobrabilidad, el agarre, las ruedas y su disposición 11. Los anteriores requerimientos permiten identificar los sistemas mecánicos, electrónicos y algoritmos de programación y su complejidad.

De acuerdo con lo anterior, se planteó el uso de un robot con chasis de aluminio 6 y con orugas plásticas, apto para cualquier aplicación de robótica, especialmente para entornos agrestes, donde se requiere que las ruedas tengan un buen agarre. Dentro de sus principales características, se destaca un alto torque, 4 motores DC de 12V, 4 correas tipo oruga plástica y un tamaño de 0.55 x 0.280 x 0.11 m (largo x ancho x alto), tal como se observa en la Fig. 2.

Fuente: Los autores.

Fig. 2. PLATAFORMA MÓVIL ORUGA T900 4WD EN ALUMINIO 

La aplicación planteada en este artículo es implementada en un entorno interior con un área de trabajo definida y con un entorno del robot estructurado, es decir, cuando los objetos presentes en el entorno son estáticos (no cambian de forma ni de posición) y poseen características físicas particulares (forma, color, etc.) que permiten asociarlos con figuras geométricas conocidas como prismas o cilindros, o permiten distinguir unos objetos de otros (puertas abiertas, mesas de trabajo, etc.). Sin embargo, su futura aplicación está enfocada a invernaderos en interiores.

2.2 Sensor RPLiDAR V. A2

El sensor LiDAR se seleccionó debido a que es un dispositivo laser 2D que cuenta con un sistema sin problemas de ruido, ejecuta un escaneo omnidireccional de rango láser de 360 grados para su entorno y luego genera un mapa de contorno para el entorno, Fig. 3.

Fuente: SLAMTEC, disponible en: https://www.slamtec.com/en/Lidar/A2.

Fig. 3. SENSOR 360° RPLIDAR 

El sensor RPLIDAR A2 es un dispositivo de bajo costo en comparación con otros dispositivos que adopta el principio de rango de triangulación laser y con el motor incorporado puede lograr obtener datos de distancia entre 4000 y 8000 muestras por segundo en un tiempo de 0.125 ms hasta un rango aproximado de 12 metros 12. Dentro de las principales aplicaciones de este dispositivo se encuentra la navegación y localización, exploración y modelación de entornos, SLAM, evasión de obstáculos, etc. En la Fig. 4. se observa la descripción de las características, requerimientos y funciones en la integración planteada del sistema LiDAR. La resolución de distancia mínima del sensor es menor que 0.5 mm con distancias menores a 1.5 metros y en los demás rangos de distancia menores al 1% de la distancia medida.

El sensor RPLIDAR A2 realiza la interface de comunicación a través del puerto serie con 3.3 V-TTL a una velocidad de 115200 bdps (baudios por segundo) por defecto. Se selecciona este dispositivo por sus características técnicas y funcionalidades respecto al área de aplicación, la garantía y durabilidad del producto, y su costo.

2.3 Cámara Estéreo ZED

La cámara estéreo ZED cuenta con 2K de resolución y es la primera 3D en el mundo para la detección de profundidad y rastreo de movimiento, ideal para aplicaciones de robótica móvil. Este dispositivo cuenta con tecnología de detección avanzada basada en la visión estéreo humana, lo que permite agregar percepción de profundidad, seguimiento posicional y mapeo 3D a cualquier aplicación 13. ZED integra la visión binocular y sensores de alta resolución para determinar qué tan lejos están los objetos de 0.5 a 20 metros a 100 FPS, en interiores y exteriores. Gracias a la tecnología de odometría visual, hace un seguimiento del movimiento de la cámara en el espacio tridimensional y obtiene una posición y orientación de hasta 100 Hz con precisión milimétrica. No se necesitan marcadores ni sensores externos.

La ZED es una cámara que reproduce la forma en que funciona la visión humana. Usando sus dos “ojos” y mediante triangulación, el ZED proporciona una comprensión tridimensional de la escena que observa, permitiendo que su aplicación se vuelva consciente del espacio y el movimiento, Fig. 5.

Fuente: Los autores.

Fig. 4. SISTEMA LiDAR 

Fuente: STEREOLABS, Disponible en: https://www.stereolabs.com/.

Fig. 5. CÁMARA 3D ESTÉREO ZED 

Fuente: Los autores.

Fig. 6. SISTEMA ZED 

Utilizando la visión por computador y la tecnología estéreo SLAM, el ZED también entiende su posición y orientación en el espacio, ofreciendo un seguimiento posicional completo de seis grados de libertad (6DOF). Con este dispositivo se puede determinar de manera confiable la posición, orientación y velocidad de su robot y hacer que navegue de forma autónoma hasta las coordenadas que elija en un mapa. Puede acceder a los datos de seguimiento de movimiento 6DOF a través del ZED SDK o sus complementos: Unity, ROS, MATLAB®, etc. En la Fig. 6. se observa la descripción de las características, requerimientos y funciones en la integración planteada del sistema ZED.

Es común observar el uso de sistemas que incluyen técnicas como la odometría, los sensores inerciales, landmarking, entre otros. Y también se ha visto las limitaciones de cada una de ellas, como es el caso de los errores sistemáticos o no sistemáticos, los primeros producto de imperfecciones cinemáticas del robot, por ejemplo, diámetros de rueda desiguales o incertidumbre sobre la distancia exacta entre ejes, y los segundos a causa de la interacción del piso con las ruedas, por ejemplo, deslizamiento de la rueda o golpes y grietas 11. A pesar de esto los resultados son significativos, sin embargo, actualmente se realiza la fusión de diversos sensores y esto permite reducir en gran medida el error, ya que permite obtener y comparar diversos valores de entrada y generar a la salida valores más aproximados de lo que sucede en la realidad. Por este motivo y teniendo en cuenta la futura integración y fusión de más sensores se plantea utilizar la cámara ZED adicionalmente por sus características técnicas, funcionalidades y también el costo de implementación.

El esquema de funcionamiento de la cámara se puede observar en la figura 7.

Un sistema de estereovisión binocular utiliza normalmente dos cámaras, separadas por una corta distancia y están ubicadas paralelamente. La idea es comparar los resultados obtenidos en cada una de las cámaras y lograr las características de la actividad que se esté realizando y esto depende de las condiciones de luz, textura y uniformidad de los objetos, entre otras. La cámara ZED se debe calibrar de acuerdo con cada aplicación y de hecho existe un aplicativo creado por StereoLabs para la calibración del dispositivo.

Para este caso la calibración provee las coordenadas espaciales necesarias (X, Y, Z) y la rotación en (Rx, Ry, Rz) 14.

De acuerdo con la Fig. 7,

b, es la distancia entre las dos cámaras

f, es la distancia focal de la cámara

X A , es el eje x de la cámara

Z A , es el eje óptico de la cámara

P, es un punto del mundo real definido por las coordenadas (X,Y,Z)

U L , es la proyección del punto P del mundo real en una imagen adquirida por la cámara izquierda

U R , es la proyección del punto P del mundo real en una imagen adquirida por la cámara derecha

Dado que las cámaras se encuentran separadas a una distancia, se obtendrán diferencias y es allí donde se puede determinar por ejemplo la distancia a la cual se encuentra determinado objeto, de esta manera las coordenadas X de los puntosU L  (1) yU R  (2) se determinan por:

(1)

(2)

La distancia entre los dos puntos generados por las cámaras se conoce como disparidad (3) y se puede utilizar este valor para determinar la profundidad (4), que es la distancia entre la cámara ZED y el objetivo o punto P.

(3)

(4)

Cuando se relaciona la profundidad con la disparidad, es importante observar que a medida que la profundidad disminuye, la disparidad aumenta exponencialmente. La resolución de profundidad se refiere a la precisión con la que un sistema de estereovisión puede estimar cambios en la profundidad de una superficie 14.

2.4 Sensor Max SONAR EZ4 y Arduino®

Los sensores de ultrasonido junto con la plataforma Arduino® son muy populares para la integración al diseñar soluciones para muchas aplicaciones en la robótica y automatización. La tarjeta de adquisición de datos Arduino® no solo provee una forma fácil de comunicación para la lectura de diferentes sensores Sonar, sino que también, permite el control múltiple de otros dispositivos hardware como relés, controladores de motores, LCD, etc.

Las principales características del sonar EZ4 incluyen resolución en centímetros, tiene la más alta tolerancia a ruidos externos y el ancho de haz más estrecho de la familia EZ, tiene mediciones tanto en largas como en cortas distancias, desde los 0.2 m hasta los 7.65 m, una velocidad de lectura de 10 Hz y maneja diferentes tipos de salida, ya sea por medio de ancho de pulso (PWM), voltaje análogo y comunicación serial RS232, 15. Este dispositivo se selecciona para cumplir con ciertas limitaciones del sensor LiDAR específicamente en la parte posterior de la plataforma móvil, ya que como se mencionó anteriormente este último dispositivo realiza un escaneo en 2D, lo que hace que muchas áreas queden sin analizar. En la Fig. 8. se observa la integración de los dispositivos Max Sonar EZ4, Arduino® y la plataforma móvil.

Por otro lado, Arduino® es una multiplataforma de código abierto basada en hardware ysoftwarefácil de usar. Las placas Arduino® pueden leer entradas analógicas y digitales. Se incorpora esta tarjeta con el fin de integrarsoftwarelibre y aprovechar sus características. Una de las ventajas que ofrece la plataforma Arduino® es permitir el envió de información a otros entornos de programación como MATLAB®.

2.5 MATLAB®

Una de las herramientas más poderosas para el procesamiento de información y operaciones matemáticas, es el entorno integrado de MATLAB®, el cual permite en este caso controlar las principales operaciones del robot y adicionalmente sirve como interfaz que permite la visualización y localización en tiempo real de robot. Para ello es necesario contar con las librerías para la comunicación de hardware y principales drivers de los dispositivos. Con MATLAB® se puede desarrollar una interfaz gráfica que puede tener interacciones con el usuario y principalmente se desarrolla con la finalidad de integrar todos los sistemas planteados en la solución robótica, Fig. 9.

Gracias a los Toolboxes de MATLAB®, se puede hacer la comunicación con la plataforma Arduino® e incluso con entornos de programación como es el caso de Visual Studio®, lo que permite reducir el uso de recursos de computador y que las aplicaciones que se desarrollen sean más eficientes.

Fuente: Los autores.

Fig. 8. INTEGRACIÓN DE DISPOSITIVOS 

En la Fig. 9 se observa la interfaz gráfica desarrollada; en la parte izquierda (1) se encuentran los controles básicos de desplazamiento de la plataforma móvil (adelante, atrás, izquierda, derecha y detener). En la parte superior derecha (2) se encuentran tres botones Tracking, Cámara y Point Cloud, pero únicamente en esta aplicación se utilizará el tracking, el cual despliega una nueva ventana donde se podrá observar el seguimiento del robot. En la parte inferior derecha (3) se observa en una cuadrícula 2D el seguimiento de la trayectoria realizada por el robot y, finalmente, en la parte central (4) se visualizan las imágenes de la cámara en el entorno donde se encuentra navegando el robot.

Fuente: Los autores.

Fig. 9. INTERFAZ GRÁFICA DE CONTROL Y VISUALIZACIÓN 

2.6 Sistema de comunicación

El sistema de comunicación utilizado para las pruebas pertinentes del prototipo se realiza por medio de comunicación por radiofrecuencia, específicamente el protocolo de ZigBee. Los módulos de radiofrecuencia XBee permiten realizar la comunicación de forma transparente, esto es simulando un cable virtual de tal manera que exista comunicación serial.

Los módulos de comunicación inalámbrica por radiofrecuencia, bajo el protocolo ZigBee, se seleccionaron por su características de envío y recepción de datos configurable y conmutable, económicos (bajo consumo), fáciles de utilizar e integrar, y poseen interfaz serial; por otro lado, una de las principales características especiales es su alcance de 100 m hasta 1,6 km en línea abierta dependiendo de la versión 16.

En este caso el control de la plataforma móvil en sus movimientos básicos (adelante, atrás, izquierda, derecha) son realizados por medio de un Joystick y los módulos permiten la comunicación bidireccional entre la tarjeta Arduino® y elsoftwarede MATLAB®.

3. RESULTADOS

La presente integración permite que el robot pueda generar un mapa 2D global y detectar algún tipo de obstáculo en el entorno donde se encuentre operando. La figura 11 ilustra las funciones de cada uno de los dispositivos involucrados.

Fuente: Los autores.

Fig. 10. SISTEMA DE CONTROL INALÁMBRICO DE LA PLATAFORMA MÓVIL 

Fuente: Los autores.

Fig. 11. FUNCIONES DE LOS SUBSISTEMAS PLANTEADOS EN LA INTEGRACIÓN 

Las funciones de la plataforma Arduino® (hardware ysoftware) de acuerdo con la Fig. 11, son: Controlar mediante señales PWM (Pulse-Width Modulation) los drivers de los 4 motores, realizar la interacción con el LiDAR, de tal forma que al detectar un obstáculo en un límite definido se toman acciones de alerta, realizar lecturas del sonar y adicionalmente sirve de interfaz de comunicación con el entorno de desarrollo de MATLAB®.

Por otra parte, el sensor ultrasonido está encargado de detectar los posibles obstáculos que puedan presentarse en la parte posterior del vehículo y se encontrará ubicado a una altura diferente al sensor LiDAR, esto permitirá tener una mayor confiabilidad del robot.

El código del LiDAR fue realizo en C++ con ayuda del firmware y librerías proporcionadas por el fabricante, es de aclarar que la comunicación de control de obstáculos se realiza vía serial por medio del Arduino®.

3.1 Precisión de la medición del LiDAR

Para observar el comportamiento y la precisión de las medidas de los dispositivos utilizados, se realizan pruebas en un entorno en interiores marcado con dimensiones de 30x30 centímetros cada lado y un grosor de la cinta de 2 centímetros, esto puede visualizarse en la figura 12.

Fuente: Los autores.

Fig. 12. ENTORNO DE MEDICIÓN EN INTERIORES 

El experimento consiste en ubicar el robot a una distancia conocida y de esta manera determinar la distancia medida con el dispositivo LiDAR, este valor es visualizado en elsoftwarede Visual Studio, tal como se puede observar en la Fig. 13 en la parte superior izquierda. Las medidas de distancia del dispositivo LiDAR obtenidas se pueden observar en la Tabla I.

Tabla I. MEDICIONES DE DISTANCIA DEL DISPOSITIVO LIDAR 

Fuente: Los autores.

Los resultados obtenidos representan un promedio de las muestras tomadas para cada una de las distancias realizadas, la precisión del dispositivo LiDAR en entornos interiores es del 99% y en promedio los errores son menores al 1%. Este último dato puede corroborarse con la información entregada con el fabricante 12. Se concluye que el dispositivo LiDAR tiene un excelente desempeño y cumple con las funciones de detección de obstáculos y de generador de un mapa 2D que permite visualizar el entorno donde se encuentra.

3.2 Generación de Mapa 2D

En la Fig. 13 se puede apreciar el comportamiento del LiDAR, en este caso interiores, los puntos determinan los objetos que se encuentran en el rango de detección del dispositivo, adicionalmente se va creando un mapa 2D variable dependiendo de las condiciones del entorno. Dentro de las variables de salida, se pueden identificar: la distancia por anillos en milímetros, donde el primer dato mostrado es de 685.6 mm correspondiente al primer anillo, la del segundo es de 1175.3 mm y la del último es de 1665.0 mm; estas distancias pueden variar de acuerdo con la selección del usuario. Por otra parte, en el círculo (2) se encuentran denotados los grados de acuerdo con la medición, para este caso el robot está realizando mediciones en un rango desde los 60° hasta los 270°, aproximadamente. En el círculo (3) se encuentra la mayor cantidad de información, como primera medida se muestra el valor de distancia hacia un determinado punto, para este caso el obstáculo que está en frente del robot y está ubicado a una distancia de 646.00 mm (puntos azules en la gráfica), adicionalmente se muestra el ángulo de barrido, el cual es generado desde los 0 hasta los 360 grados, se muestra la frecuencia y la velocidad de giro del motor del dispositivo LiDAR. Finalmente, en el círculo (4) se visualiza la frecuencia de muestreo y su relación con la calidad de los datos, pues en este caso es de 4K, pero si por ejemplo fuese de 0K, indica que existen errores en las mediciones o está fallando el dispositivo LiDAR.

Fuente: Los autores.

Fig. 13. GENERACIÓN DE MAPA 2D MEDIANTE EL DISPOSITIVO LIDAR 

3.3 Desplazamiento del robot móvil

La cámara ZED para esta aplicación se encarga de realizar el posicionamiento del robot en el mapa, es decir, la cámara es la que permitirá observar el movimiento del robot y la distancia que ha recorrido. El experimento para este caso consiste en ubicar al robot en una línea recta para que navegue una distancia conocida, una vez se da la partida inicial al robot, se genera un vector con la información del posicionamiento en (X, Y y Ø) con esto se puede comparar en cualquier momento estas dos medidas y observar el comportamiento del robot.

En la Tabla II, se observan los resultados obtenidos en las pruebas realizadas para el posicionamiento móvil de la plataforma en entornos interiores, allí se analiza la posición en X e Y del robot de acuerdo con un recorrido lineal para todos los casos. Las mediciones fueron realizadas bajo un entorno de medición controlado.

Tabla II. POSICIONAMIENTO MÓVIL DE LA PLATAFORMA EN INTERIORES 

Fuente: Los autores.

Los resultados obtenidos muestran que el porcentaje de error medido es significativamente bajo para los diferentes recorridos de la plataforma móvil. En promedio el error medido es del 1.2% a pesar de ser un muy buen resultado, es de aclarar que se hicieron las pruebas en condiciones de luz y de entorno controladas. De forma general, la cámara utilizada permite cumplir con tareas de seguimiento e incluso una de las aplicaciones más comunes de esta cámara se puede observar en los drones, obteniendo buenos resultados en tareas de inspección y vigilancia 17.

Una de las consideraciones por tener en cuenta es con referencia al sistema mecánico de la plataforma, pues si este cuenta con problemas de tracción o de agarre las mediciones pueden generar errores acumulativos hasta del 10%. A pesar de esto, se podría reducir este porcentaje de error aumentando la calidad de la resolución de la cámara o controlando las condiciones de luz del ambiente donde se encuentra operando el robot.

La Fig. 14 muestra la diferencia entre los valores reales y los valores medidos, concluyendo de esta manera que los datos obtenidos son proporcionales y lineales y adicionalmente se presenta una alternativa a los métodos tradicionales de posicionamiento. Lo anterior con la ventaja de fusionarse con otros sensores, tales como los inerciales, de localización GPS, odometría, entre otros.

3.4 Seguimiento del robot móvil

Finalmente, en elsoftwarede MATLAB® se observa la visualización del mapa global generado, así como también el control asistido de la plataforma móvil. En este entorno se evidencia la creación de una interfaz gráfica GUI (Graphical User Interface) que gobierna los demás sistemas, principalmente controlando las entradas y salidas de los dispositivos.

Fuente: Los autores.

Fig. 14. MEDICIONES DE LA CÁMARA ZED SEGÚN LOS RECORRIDOS 

En la Fig. 15 se observa el seguimiento del robot en un plano 2D, para este primer caso se observa el posicionamiento inicial de la plataforma, que a su vez es controlada por los botones creados en la parte izquierda de la figura. En la Fig. 15 se observa la posición final de la plataforma, para el ejemplo se muestra que el robot alcanza los 2 metros en el eje Y y los 0 metros en el eje X.

Fuente: Los autores.

Fig. 15. INTERFAZ GRÁFICA PARA EL SEGUIMIENTO DE LA PLATAFORMA MÓVIL 

Como se observa en la Fig. 16, cuando el sistema detecta un obstáculo en un rango de los 30 a los 330 grados y a una distancia inferior a los 0.3 metros el robot hace el giro automáticamente hacia el lado derecho con el fin de no causar daños al entorno o al mismo dispositivo, esta acción es programada con anterioridad en elsoftwarede Visual Studio.

Fuente: Los autores.

Fig. 16. EVASIÓN DE OBSTÁCULOS DURANTE LA DETECCIÓN Y SEGUIMIENTO 

CONCLUSIONES

Con el desarrollo de la plataforma planteada se proporciona una alternativa que permite resolver uno de los problemas más comunes de la robótica en el área de SLAM, desplazamiento y seguimiento de una plataforma móvil, además, se integran diferentes tecnologías que permiten al usuario controlar y visualizar el comportamiento de los dispositivos utilizados en el robot. Si bien los resultados validan y comprueban que los dispositivos aquí planteados cumplen con su función, se pueden requerir modelos matemáticos y de control que permitan mejorar la aplicabilidad en campos más complejos como los cultivos de algún producto agrícola o que la plataforma sea autónoma.

La visión 3D actualmente ha tenido avances muy importantes en el área de la robótica y debido a esto han surgido diferentes aplicaciones, como el seguimiento de robots, generación de mapas, detección de obstáculos, entre otras. Por otra parte, existen diferentes formas de calcular información de acuerdo con las tecnologías involucradas, tales como la estereovisión, la triangulación laser, el tiempo de vuelo, la luz proyectada entre otras, pero la elección siempre dependerá de la aplicación en la cual se está trabajando.

Con el desarrollo de la plataforma móvil y la integración propuesta en esta investigación, se abre la posibilidad de fusionar información con otro tipo de sensores, tales como los sistemas inerciales, encoders, GPS, ultrasonidos, entre otros, con el fin de mejorar las aplicaciones en el área y la calidad de la información adquirida desde el exterior. Adicionalmente, se destaca que la precisión y el rendimiento de la plataforma en entornos interiores es sobresaliente, obteniendo errores bajos en las mediciones y mejores resultados en relación con el posicionamiento y seguimiento en comparación con otro tipo de plataformas tecnológicas.

AGRADECIMIENTOS

Los autores agradecen el apoyo brindado por la Universidad Pedagógica y Tecnológica de Colombia y la Universidad de Boyacá, que permitieron el desarrollo satisfactorio de los experimentos con el préstamo de laboratorios y elementos utilizados en esta investigación.

REFERENCIAS

1. D. C. Slaughter, D. K. Giles, and D. Downey, “Autonomous robotic weed control systems: A review,”Comput. Electron. Agric., vol. 61, no. 1, pp. 63-78, Apr. 2008. DOI: https://doi.org/10.1016/j.compag.2007.05.008. [ Links ]

2. D. Ballet al .Robotics for Sustainable Broad-Acre Agriculture. In: L. Mejias, P. Corke, J. Roberts, (eds) Field and Service Robotics. Springer Tracts in Advanced Robotics, vol 105, 2015. Springer, Cham. DOI: https://doi.org/10.1007/978-3-319-07488-7_30.Links ]

3. A. Barrientos et al., “Aerial remote sensing in agriculture: A practical approach to area coverage and path planning for fleets of mini aerial robots,”J. F. Robot., vol. 28, no. 5, pp. 667-689, Sep. 2011. DOI: https://doi.org/10.1002/rob.20403.Links ]

4. S. G. Tzafestas and S. G. Tzafestas , “Mobile Robot Localization and Mapping,”Introd. to Mob. Robot Control ,pp. 479-531, Jan. 2014. ISBN: 0124171036, 9780124171039. [ Links ]

5. J. Park, J. Y. Kim, B. Kim, and S. Kim, “Global Map Generation using LiDAR and Stereo Camera for Initial Positioning of Mobile Robot,” in2018 International Conference on Information and Communication Technology Robotics (ICT-ROBOT), 2018, pp. 1-4. DOI: 10.1109/ICT-ROBOT.2018.8549897. [ Links ]

6. B. A. C. Caldato, R. A. Filho, and J. E. C. Castanho, “ORB-ODOM: Stereo and odometer sensor fusion for simultaneous localization and mapping,” in2017 Latin American Robotics Symposium (LARS) and 2017 Brazilian Symposium on Robotics (SBR) ,2017, pp. 1-5. DOI: 10.1109/SBR-LARS-R.2017.8215301. [ Links ]

7. L. Cheng, Y. Dai, R. Peng, and X. Nong, “Positioning and navigation of mobile robot with asynchronous fusion of binocular vision system and inertial navigation system,”Int. J. Adv. Robot. Syst. ,vol. 14, no. 6, p. 172988141774560, Nov. 2017. DOI: 10.1177/1729881417745607. [ Links ]

8. D. T. Savaria and R. Balasubramanian, “V-SLAM: Vision- based simultaneous localization and map building for an autonomous mobile robot,” in2010 IEEE Conference on Multisensor Fusion and Integration, 2010, pp. 1-6. DOI: 10.1109/MFI.2010.5604466. [ Links ]

9. G. Campion, G. Bastin, and B. D’Andrca-Novel, “Structural Properties and Classification of Kinematic and Dynamic Models of Wheeled Mobile Robots,” 1996. DOI: 10.1109/ROBOT.1993.292023. [ Links ]

10. J. L. Jones, B. A. Seiger, and A. M. Flynn,Mobile robots: inspiration to implementation .A.K. Peters, 1999. ISBN: 1568810970 / 9781568810973. [ Links ]

11. J. Borensteinet al., “Where am I? Sensors and Methods for Mobile Robot Positioning Prepared by the University of Michigan For the Oak Ridge National Lab (ORNL) D& D Program and the United States Department of Energy’s Robotics Technology Development Program Within the Environmental Restoration, Decontamination and Dismantlement Project,” 1996. [ Links ]

12. SLAMTEC, “RPLIDAR-A2 Laser Range Scanner_ Solid Laser Range Scanner|SLAMTEC,” 2018. (Online). Available: Available: https://www.slamtec.com/en/Lidar/A2 . (Accessed: 14-Feb-2019). [ Links ]

13. STEREOLABS, “Stereolabs - Capture the World in 3D,” 2018. (Online). Available: Available: https://www.stereolabs.com/ . (Accessed: 14-Feb-2019). [ Links ]

14. Dinesh Nair, “A Guide to Stereovision and 3D Imaging - Tech Briefs.” (Online). Available: Available: https://www.techbriefs.com/component/content/article/tb/features/articles/14925?start=1 . (Accessed: 11-Apr-2019). [ Links ]

15. MaxBotix, “How to Use an Ultrasonic Sensor with Arduino (With Code Examples),” 2017. (Online). Available: Available: https://www.maxbotix.com/Arduino-Ultrasonic-Sensors-085/ . (Accessed: 14-Feb-2019). [ Links ]

16. Edwin Leonel Álvarez Gutiérrez, “Red ZigBee para la Medición de Variables Físicas con Interfaz en Arduino- MATLAB,”I3+, vol. 3, p. 50-64 p., 2016. DOI: https://doi.org/10.24267/23462329.218. [ Links ]

17. A. F. Silva-Bohórquez, L. E. Mendoza, and C. A. Peña-Cortés, “Sistema de inspección y vigilancia utilizando un robot aéreo guiado mediante visión artificial,”ITECKNE, vol. 10, no. 2, pp. 190-198, Feb. 2014. DOI: https://doi.org/10.15332/iteckne.v10i2.421. [ Links ]

Recibido: 27 de Abril de 2019; Aprobado: 26 de Junio de 2019

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons