SciELO - Scientific Electronic Library Online

 
 issue50Dissimilarity-based classification for stochastic models of embedding spaces applied to voice pathology detectionAnalytical model of wheel-rail contact force due to the passage of a railway vehicle on a curved track author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Revista Facultad de Ingeniería Universidad de Antioquia

Print version ISSN 0120-6230
On-line version ISSN 2357-53280

Rev.fac.ing.univ. Antioquia  no.50 Medellín Oct./Dec. 2009

 

Seguimiento de trayectorias y objetivos en tierra usando un dirigible y visión artificial

Tracking of ground-trajectories and target using an airship and artificial vision

Juan Catuche, Julio Sterling, Bladimir Bacca-Cortes*

Grupo de Investigación en Percepción y Sistemas Inteligentes, Universidad del Valle, Escuela de Ingeniería Eléctrica y Electrónica, Cra. 91 No. 28-23, Cali, Valle, Colombia

 


Resumen

Este artículo presenta un sistema robótico autónomo compuesto por un dirigible para interiores, un sistema de vídeo inalámbrico, un PC y una aplicación para el seguimiento de trayectorias y objetivos en tierra con alto contraste. Se ha simplificado el modelo del dirigible con el fin de obtener su modelo lineal, con el cual se han definido objetivos de control como la orientación relativa del dirigible y la distancia de éste a objetivos en tierra. Se ha diseñado una estrategia de control PD tanto para la orientación como para la distancia a los objetivos, alcanzando un tiempo de estabilización de 5s y un sobre-impulso de 5%. La cámara es el único sensor de realimentación, cuyas imágenes son procesadas para: la segmentación de trayectorias, usando la transformada de Hough, el operador de Canny y un filtro mediana; la segmentación de objetos en tierra, usando diferenciación por color en HSI. Se realizaron pruebas para el seguimiento de trayectorias lineales, curvas y una combinación de ellas, arrojando errores de orientación inferiores a ±14o y distancia de ±5pixeles. Se realizaron pruebas para el seguimiento de objetivos en tierra, describiendo trayectorias lineales y curvas, arrojando errores de distancia de ±39 pixeles que corresponden al 8,33% de las dimensiones de la imagen y orientación en el sentido del objetivo de ±12o.

Palabras clave: Robótica móvil, dirigible, visión artificial, seguimiento de trayectorias, seguimiento de objetivos

 


Abstract

This paper presents a robotic autonomous system composed by an indoors airship, a wireless video system, a PC and a tracking software for ground trajectory and high contrasted target tracking. The airship’s model has been simplified in order to get its lineal model, with which we defined the control objectives as relative heading and distance between the airship and groundtargets. A PD control strategy has been designed as airship’s heading as distance to goals, reaching a stabilization time of 5s and a overshoot of 5%. The video camera is the only feedback sensor; its images are processed for: trajectory segmentation using the Hough transform, Canny operator and a median filter; and ground-target segmentation, using color detection in the HIS space. Lineal, curved and lineal-curved combination trajectories tests were performed, reaching heading errors less than ±14o and distance of ±5pixels. Ground-targets tracking tests were performed, describing lineal and curved trajectories and reaching distance errors of ±39pixels, which corresponds to 8,33% image’s dimensions and orientation along goals’ heading of ±12o.

Keywords: Mobile robotics, blimp, artificial vision, trajectory tracking, target tracking

 


Introducción

La robótica móvil es un área que involucra tanto vehículos terrestres, aéreos como submarinos. Todos estos vehículos poseen sistemas de navegación dependientes de la realimentación con el entorno, para lo cual comúnmente se usan sistemas inerciales, magnéticos o una combinación de los dos. La realimentación visual y las nuevas técnicas de tratamiento de imágenes, permiten que una o varias cámaras sean los sensores más importantes para la navegación de un robot móvil. En nuestro caso, el vehículo móvil a controlar es un dirigible o vehículo flotante, que gracias a su capacidad para tener una visual global del suelo, las imágenes son adquiridas no solo serán usadas para la navegación, sino que pueden ser usadas en aplicaciones para vigilancia [1], supervisión de variables ambientales [2, 3], detección de incendios, medición de polución [4], sistemas de comunicación [5] y sistemas inteligentes de transporte [6].

En la Universidad del Valle se desea dar los primeros pasos en esta área de investigación, para lo cual el primer objetivo es una aproximación al modelo de la plataforma, su control y navegación básica. En este artículo se presenta un sistema, inicialmente para interiores, que emplea una cámara como único sensor de realimentación con el fin de guiar al dirigible por una trayectoria trazada en el piso, ó seguir un objeto con determinadas características de color. El control del dirigible se realiza a través de una aplicación software externa al aparato, debido a la escasa carga útil de estas plataformas. Se definieron un par de aplicaciones básicas, el seguimiento de trayectorias y de objetivos en tierra, lo cual permitiría por ejemplo la supervisión del estado de tráfico en una vía urbana o extra - urbana, estando relacionado con las aplicaciones en sistemas inteligentes de transporte. Aplicaciones a nivel nacional basadas en sistemas de visión montados en vehículos aéreos pueden ayudar a solucionar problemas como el robo de automóviles [7], donde se reportan incrementos hasta del 45% en robos violentos de vehículos en las principales ciudades del país, ó reportes de 52 automóviles robados diariamente en Colombia [8]. Es claro que el problema de seguridad es importante y solo se refiere a casos reportados, ya que los robos a transeúntes pocas veces son denunciados. A mediano plazo se pretende tener un sistema de vigilancia en grandes superficies, donde las cámaras no sean fijas, sino móviles y a una altura tal que exista una visual más directa y amplíe el rango de acción del sistema. Además, a futuro un sistema de adquisición de datos visuales usando vehículos flotantes permitiría, remotamente, el procesamiento de imágenes para determinar el estado del tráfico, lo cual se ha convertido en una variable importante con el advenimiento de los sistemas masivos de transporte. El artículo está estructurado de la siguiente manera: en primer lugar se describe el hardware del sistema y la interfaz de usuario; luego, el modelo cinemático, dinámico, su simplificación y las estrategias de control; se sigue con el procesamiento de imágenes que permite la segmentación de la trayectoria y el objeto a seguir; luego, las pruebas y resultados realizados; y finalmente, las conclusiones, trabajos futuros y referencias.

Descripción de la plataforma de experimentación

La figura 1 muestra el esquema del sistema propuesto, el cual se compone de: un dirigible para interiores (MegaTech®) de 52” de largo, 37” de alto y 37” de ancho, con una capacidad de albergar 7 pies cúbicos de helio, posee una góndola de tres hélices, donde alberga al circuito receptor de las señales enviadas por el radio - control (No. 1 en la figura); una cámara de vídeo inalámbrica de dimensiones reducidas (20x20x14 mm y 60g de peso) ubicada en la góndola, su señal es transmitida a un receptor (No. 2 en la figura), el cual entrega una señal NTSC de 510x492 pixeles a 30fps, sin embargo para el procesamiento se usa una imagen de 320x240; la señal de salida del receptor inalámbrico es digitalizada por una tarjeta PCI TV7131 de Global TV Terminator Kworld® (No. 3 en la figura); luego, la aplicación software en el PC (No. 4 en la figura) determina los comandos de control que son enviados a través del puerto serie a una tarjeta de interfaz (No. 5 en la figura); finalmente, la salida de la tarjeta de interfaz se conecta a un transmisor de radio frecuencia de 3 canales (No. 6 en la figura), el cual en conjunto con el receptor que se encuentra en la góndola determinarán el tiempo de activación de los motores del dirigible. La tarjeta de interfaz fue implementada teniendo en cuenta los rangos mínimos y máximos que el fabricante especificaba para la activación de los motores, esto es tiempos de activación entre 350ms y 800ms de los motores del dirigible.

Figura 1 Diagrama general del sistema

Descripción de la interfaz de usuario

La figura 2 muestra la interfaz de usuario compuesta por: 4 menús de texto, una barra de accesos rápidos y componentes gráficos para: la información de vídeo de la cámara, las imágenes procesadas cada 1000ms, una consola de datos y un control manual del dirigible, permitiendo definir la posición inicial del dirigible. Los menús de texto tienen funcionalidades para el trabajo con archivos, grabar vídeos, grabar imágenes segmentadas (trayectorias u objetos) e información de la consola de texto, selección del tipo de seguimiento a realizar (trayectorias u objetos), hasta la configuración de los parámetros de los algoritmos de procesamiento de imágenes, control del dirigible y de comunicación con la interfaz al radio control.

Tanto la interfaz de usuario, como el algoritmo de control y los algoritmos de procesamiento de imágenes fueron implementados en C++ Builder 6.0 de BorlandTM.

Figura 2 Interfaz de usuario

Modelo y control del vehículo aéreo

Figura 3 Marcos coordenados de la plataforma

Con el fin de establecer un marco de referencia y definir el modelo cinemático y dinámico del dirigible, la figura No. 3 muestra los ejes coordenados seleccionados y su orientación. En esta figura se observa que el eje Z se orienta hacia abajo, el eje X hacia delante y el eje Y hacia la derecha, el origen del sistema coordenado (B) se define en el centro de gravedad del vehículo flotante. A continuación se definirá el modelo cinemático, dinámico, su simplificación y el diseño de los controladores.

Modelo cinemático

Un vehículo flotante como un dirigible se desplaza en 3 dimensiones, por lo tanto el modelo cinemático completo define un vector de posición mostrado en la ecuación (1).

Donde X,Y,Z determinan la posición del vehículo y f, q, y su orientación en Z, Y, X correspondientemente. Para el control, el marco de coordenadas del vehículo debe transformarse a un marco de coordenadas global (inercial). El resultado de esta transformación en coordenadas RPY, Roll (y) Pitch (q) Yaw (f), se muestra en la ecuación (2).

Donde RRPY es la matriz de rotación entre del marco (B) al (W). Con el fin de definir el vector de estado en términos de sus Jacobianos [9], es necesaria la relación entre las velocidades angulares relativas a (W) y las velocidades angulares en (B). De la ecuación (2) se obtiene la ecuación (3), teniendo en cuenta [10,11], se obtiene la ecuación (4) que define el modelo cinemático completo del dirigible.

Modelo dinámico

Teniendo en cuenta el análisis de fuerzas sobre el cuerpo del dirigible, asumiendo que el vehículo es un cuerpo rígido, y las expresiones Newton - Euler para el movimiento [12,13] se obtiene la ecuación (5).

Donde: M = MRB + MA: Matriz de masas, incluyendo los términos de masas añadidas; C(vb) = CRB(vb) + CA(vb): Matriz de Coriolis y términos centrípetos, incluye masas añadidas; D(vb) = DS(vb) + DH(vb): Matriz de amortiguamiento de fricción de piel y difusión de vórtice; g(hb): Vector de fuerzas gravitacionales y flotamiento; tb: Fuerzas de actuación y disturbio; vb: Vector de velocidades del cuerpo; hb: Vector de posición del cuerpo.

A continuación se detallan las suposiciones que permitirán hacer ciertas simplificaciones: el centro de gravedad coincide con el centro de marco coordenado y la góndola se ubica a lo largo del eje Z del marco de coordenadas, lo cual hace que la matriz de masas MRB se exprese como la ecuación (6) con XG = 0 y YG = 0.

Donde Ib = diag{IXX, IYY, IZZ} es la matriz de inercias del cuerpo, cuyos coeficientes se definen según la ecuación (7) [10].

Donde a es el semieje mayor de la elipse que aproxima al dirigible, b es el semieje menor y c es el foco, para nuestro caso a = 68,6cm, b = 46,9cm y c = 50,1cm; y ρ es la densidad del aire igual a 1,2 Kg./m3. Dando como resultado Ib = diag{0,067 0,105 0,105}.

Si el dirigible se asume no deformable, debido a su baja velocidad de desplazamiento y que posee forma de elipse, se puede simplificar la matriz de masas añadidas MA a una matriz diagonal, ecuación (8), cuyos valores se muestran en las ecuaciones (9) a (12) [10].

Donde αO, βO, e y m se definen en las ecuaciones (13) a (16) [10].

Dado que se tendrá en cuenta la navegación del dirigible en el plano XY, a una altura definida y que a través del análisis de imágenes solo se determinará la orientación del dirigible, sin el ángulo de cabeceo (Pitch) ni el ángulo de ladeo (Roll), las variables a considerar están dadas por la ecuación (17).

Al sumar las matrices de masas del cuerpo rígido, las masas añadidas, los coeficientes de inercia y solo considerar las variables de la ecuación (17), se tiene la ecuación (18) para M.

Dado que el vehículo aéreo se desplaza a velocidades bastante bajas, es posible asumir que el término asociado a la matriz de Coriolis es cero, esto es C(v)v = 0. Bajo esta misma suposición, el término de amortiguamiento aerodinámico del vehículo solo dependería del amortiguamiento lineal, DS(vb), ya que el amortiguamiento producido por la difusión de vórtice, DH(vb), se anula [12,13]. Entonces, teniendo en cuenta la ecuación (17) el amortiguamiento queda definido por D = diag{DVX, DVY, DW}, donde los términos de la diagonal pertenecen al amortiguamiento en XY y a la velocidad angular. Cada coeficiente se determina con la relación entre la fuerza en el eje correspondiente y la velocidad, la fuerza fue medida usando un dinamómetro, tal que: FX = 0,0225N, FY = 0,0143N y FZ = 0,0225N. La velocidad fue estimada usando el sistema de visión y un patrón uniforme de líneas paralelas en el piso, para la fuerza en X se realizó un escalón de velocidad con las dos hélices encendidas, estos datos revelaron una velocidad promedio de VX = 430mm/s. De la misma forma para los otros componentes, obteniendo: VY = 90mm/s y WZ = 0,3rad/s. Con lo cual el término de amortiguamiento está dado por: D = diag{0,052355; 0,15888; 0,075} N/ms-1. Ahora, se dijo que XG = 0, YG = 0, f = 0, q = 0 y la ecuación (17), la matriz de fuerzas gravitacionales G es nula [10].

Con el fin de obtener la aproximación lineal del modelo del dirigible, se define un punto de equilibrio para el vector de posiciones y velocidades, y al variar estos puntos en su vecindad se obtiene el modelo en espacio de estado mostrado en la ecuación (19) [12, 13, 14].

La ecuación (19) es de la forma x = Ax + Bu, donde B está dado por la ecuación (20) y define la posición de los motores en el dirigible.

Donde Ly = 0,09m es la distancia del centro de la góndola hasta los motores laterales de la misma, y Lx = 0m es la distancia del centro de masa del cuerpo rígido (dirigible) hasta el centro de la línea que une los dos motores laterales.

Descripción de los objetivos de control

El seguimiento de trayectorias y el seguimiento de objetivos en tierra son dos aplicaciones independientes y mutuamente excluyentes en el sistema presentado. La ejecución de estas aplicaciones se selecciona a través de la interfaz de usuario. Los objetivos de control que gobiernan estas aplicaciones son dos: control de orientación del dirigible y control de distancia al objetivo. Ambas usan un controlador PD calculado teniendo en cuenta el modelo descrito en la ecuación (19).

Para el seguimiento de trayectorias, el control de orientación se realiza a lo largo de toda la imagen; sin embargo, el control de distancia a la trayectoria o al objetivo, se realiza siempre y cuando éstos se ubiquen fuera de la sub - imagen que se muestra en la figura 4, la cual posee un 20% del área total para trayectorias y 10% para objetivos.

Entonces, para el seguimiento de trayectorias, primero se ubica la trayectoria dentro de la sub - imagen y luego se orienta al dirigible en el mismo sentido que eje vertical de la imagen, como se presenta en la figura 4; y para el seguimiento de objetivos se orienta al dirigible hacia el objetivo y luego se trata de mantener el objetivo dentro de la sub - imagen.

Figura 4 a) Seguimiento de trayectorias, b) Seguimiento de objetivos

Diseño del controlador

Teniendo en cuenta la ecuación (19), se obtienen las funciones de transferencia tanto continua como discreta para la distancia al objetivo y la orientación del dirigible, las cuales se muestran en las ecuaciones (21) a (24). Analizando el comportamiento de estos modelos se observa una constante de tiempo estimada de 1,6s, esto implica un tiempo de establecimiento de 6,4s. Dadas las restricciones de actuación mencionadas anteriormente y que la plataforma se maneja a bajas velocidades, el tiempo de muestreo seleccionado fue de 1s.

Donde GX(s), Gy(s), GXD(z) y GyD(z) son las funciones de transferencia, continuas y discretas, para el control de distancia y orientación. Realizando un análisis de polos y ceros, teniendo en cuenta que se desea un tiempo de establecimiento aproximado de 5s y sobre-impulsos menores al 5% [15], se obtuvieron dos controladores PD cuyas funciones de transferencia en tiempo continuo y discreto se muestran en las ecuaciones (25) a (28).

Donde GCX(s), GCy(s), GCXD(z) y GCyD(z) son las funciones de transferencia, continuas y discretas, de los controladores de distancia y orientación.

Procesamiento digital de imágenes

Seguimiento de trayectorias

Para la detección de la trayectoria que se debe seguir, se realiza una detección de bordes y binarización de la trayectoria usando un filtro de Canny [16] y finalmente con ayuda de un filtro mediana se elimina el ruido, ver figura 4a.

Con el fin de determinar el error de orientación, es necesario detectar la orientación local de la trayectoria, para lo cual se exploraron dos técnicas la transformada de Hough [16] y regresión lineal sobre la imagen binarizada, la ecuación (29) determina la pendiente de la recta que más se aproxima a los datos de entrada y la ecuación (30) determina el intercepto.

Donde m es la pendiente calculada, b es el intercepto, Xi y Yi son las posiciones del pixel en la imagen, n es el número de datos disponibles, y son dos puntos que pertenecen a la recta.

Se tomó un vídeo de un patrón compuesto de una sola línea negra en fondo blanco, el cual se hizo rotar a velocidad constante. Este vídeo se analizó usando las dos técnicas, la figura 5 muestra los resultados y los errores de orientación obtenidos para la transformada de Hough y Regresión Lineal.

Finalmente se optó por la transformada de Hough, dado su mejor comportamiento ante el ruido, pixeles espurios y mejores tiempos de procesamiento sobre el PC que se trabajó, obteniendo 9ms en promedio para la transformada de Hough y 14ms para la regresión lineal.

Seguimiento de objetivos

Para la detección de objetivos se implementó una técnica basada en la cromaticidad de los mismos. Antes de realizar la detección de la ubicación relativa del objetivo en tierra, se transforma la imagen capturada al plano (Hue, Saturation, Intensity) HSI debido a su mejor comportamiento ante variaciones de iluminación [16]. Obteniendo los histogramas en los planos HSI para objetivos rojos y azules, se definieron los siguientes rangos de tono (H) para segmentarlos: para el color rojo 0-38 y de 219-255; para el color azul 132-209. La figura 6 muestra una imagen obtenida de la cámara del dirigible y los histogramas del plano H para los colores seleccionados de los objetivos. Una vez se segmentan los objetivos, se calculan sus centroides, se promedian estos valores obteniendo la posición del objetivo en tierra y realizando la resta (asumiendo el color azul como la parte frontal del objetivo) entre estos dos puntos en la imagen se determina la orientación del objetivo.

Figura 5 Errores de orientación: a) Transformada Hough. b) Regresión Lineal

Figura 6 a) Imagen original. b) Rangos de tono de los colores de los objetivos

Pruebas y resultados

Existen 2 tipos de pruebas realizadas, las primeras usando trayectorias rectas, curvas y complejas (mezclando rectas y curvas) como se muestra en la figura 7a. Estas pruebas fueron realizadas en un lugar cerrado, buena iluminación, sin corrientes de aire que perturben la plataforma, el suelo se cubrió con un tapete de 4,5x4,5m y con la trayectoria en color blanco, ver figura 7b. Y las pruebas de seguimiento de objetivos siguen similares características, aprovechando el trazado de la trayectoria, el objetivo en tierra se movía describiendo rectas y curvas.

Seguimiento de trayectorias

Las tablas 1 y 2 (R - Rectas, C - Curvas, TC - Trayectorias Complejas) muestran los valores iniciales y la desviación estándar de los errores de orientación para el seguimiento de trayectorias rectas, curvas y complejas. El error de orientación se mide relativo a la referencia de 90o. Las figuras No. 8 y 9 muestran gráficamente los errores de orientación y distancia promedio para cada prueba.

Figura 7 a) Pruebas de seguimiento de trayectorias. b) Lugar de las pruebas

Tabla 1 Datos de orientación para el seguimiento de trayectorias rectas, curvas y complejas

Seguimiento de objetivos

Igualmente, las pruebas realizadas para el seguimiento de objetivos en tierra se ejecutaron aprovechando del trazado mostrado en la figura 7b. El dirigible debe lograr que el objetivo en tierra quede dentro de la sub - imagen y luego alinearse con éste. La sub - imagen está determinada por las coordenadas: (50, 0) y (50, -50), donde el primero es el punto superior izquierdo y el segundo es el punto inferior derecho, asumiendo un origen en el centro de la imagen. Las tablas 3 y 4 (R - Rectas, C - Curvas) y las figuras 10 y 11 muestran los datos para los errores de distancia y orientación.

Figura 8 Errores de orientación para el seguimiento de trayectorias rectas, curvas y complejas

Tabla 2 Datos de distancia para el seguimiento de trayectorias curvas y complejas

Análisis de resultados

En términos generales, el control de orientación del dirigible para el seguimiento de trayectorias (rectas, curvas y complejas) revela que en promedio se tiene un error de ±14o. De la tabla de datos 1 y la figura 8 se observa que el dirigible no siempre inicia la prueba alineado con la trayectoria, lo cual muestra la capacidad del sistema para mantener en control a la planta. Sin embargo, observando los datos de desviación estándar, se nota una variación de los datos lo cual revela el comportamiento oscilatorio de la plataforma, esto es consecuencia del proceso de linealización y del tipo de control que se ha implementado.

Figura 9 Errores de distancia para el seguimiento de trayectorias curvas y complejas

Figura 10 Errores de orientación en el seguimiento de objetivos en trayectoria recta y curva

Tabla 3 Datos de orientación para el seguimiento de objetivos en trayectoria recta y curva

Tabla 4 Datos de distancia para el seguimiento de objetivos en trayectoria recta y curva

Figura 11 Errores de distancia en el seguimiento de objetivos en trayectoria recta y curva

El control de distancia actúa con el fin de mantener la trayectoria dentro de la sub - imagen definida por los puntos: (-50, 0) y (50, -50), teniendo un semicírculo inscrito de radio 50pixeles. De los datos para el control de distancia a la trayectoria, se observa un error promedio de ±5 pixeles medidos en relación al semicírculo descrito anteriormente. Entonces, de la tabla de datos No. 2 y la figura 9, se observa que el control de distancia mantiene al dirigible con la trayectoria dentro de la sub - imagen descrita, la mayoría del tiempo. De nuevo, las pruebas no inician con una distancia a la trayectoria en 0 o con errores pequeños, hay diversidad, mostrando que el dirigible se mantiene en control. De nuevo, debido a las oscilaciones de la planta, los datos poseen una variación considerable. Se observa que tanto los errores de orientación como los de la distancia a la trayectoria no crecen desmedidamente para las trayectorias complejas. La figura 7b muestra una trayectoria cerrada, el dirigible recorría sin inconvenientes los tramos rectos, pero había altos errores eventuales tanto de orientación como de distancia al tomar las curvas. Sin embargo, se recuperaba el control y estas situaciones se deben a la considerable inercia del dirigible, lo que generaba los errores descritos y que los controladores trataban de compensar en la medida de sus posibilidades.

Para el seguimiento de objetivos en tierra, se debe recordar que el sistema de control trabaja en secuencia, además, debe tenerse en cuenta que el desplazamiento del objetivo en tierra es continuo, generando continuamente errores que el controlador de distancia trata de compensar. Los datos de la tabla 3 y la figura 11 muestran un error promedio de ±39pixeles, medidos en relación al semicírculo inscrito descrito anteriormente. El movimiento del objetivo no es suave, desde el punto de vista del dirigible se observa como cambios escalonados de la posición relativa del objetivo, lo cual desde el punto de vista del control genera considerables errores momentáneos y en consecuencia altos valores de activación en los actuadores. Con lo cual a pesar de todo, el controlador mantiene el dirigible sobre el objetivo. De los datos para el control de orientación del dirigible en el seguimiento de objetivos se puede observar que se tiene un error promedio de ±12o, obteniendo menos errores en trayectorias rectas que en las curvas, lo cual es debido a la actuación secuencial de los controladores, ya que los errores de orientación se incrementan fácilmente cuando el objetivo sale de la sub - imagen, teniendo como prioridad en este caso el acercamiento del dirigible al objetivo que se desplaza en tierra, de lo contrario, el objetivo puede salir del campo de visión del dirigible.

Conclusiones

Se ha presentado un sistema de seguimiento de trayectorias y objetivos en tierra usando un dirigible para interiores como vehículo aéreo, una cámara inalámbrica como único sensor de realimentación y un PC en el cual se ejecuta una aplicación como interfaz de usuario y control del dirigible. El sistema de control tanto de orientación como de distancia ha sido diseñado basándose en una aproximación lineal del modelo del dirigible y cumpliendo con especificaciones como: Tiempo de Establecimiento de 5s y sobre impulsos menores al 5%. Según las pruebas realizadas se tiene errores de orientación promedio en el seguimiento de trayectorias de ±14o y errores promedio de distancia a la trayectoria de ±5pixeles medidos en relación a un semicírculo de radio igual a 50pixeles ubicado en el centro de la imagen; errores de distancia a objetivos móviles en tierra de ±39pixeles, medidos en relación al semicírculo inscrito descrito anteriormente, y errores de orientación en el sentido del objetivo en tierra de ±12o. El procesamiento de imágenes segmenta la trayectoria usando la transformada de Hough y un filtrado de mediana para eliminación de ruido; y los objetivos se segmentaron usando su color y el modelo HSI. Se debe resaltar que la navegación del dirigible se ha simplificado a un plano y que no se controla la altura de operación. El modelo del dirigible y el control diseñado no consideran la existencia de perturbaciones fuertes, además, las pruebas realizadas fueron llevadas a cabo en un ambiente cerrado, sin brisas e iluminación controlada. El trabajo presentado es un primer paso para la concepción de sistemas piloto para: la supervisión del estado del tránsito, donde las trayectorias serían las carreteras en una zona urbana o inter - urbana y los objetivos en tierra los vehículos o uno en especial; la vigilancia de grandes superficies como parqueaderos en centros comerciales, de tal manera que una imagen aérea de la zona permitiría el seguimiento de una persona, auto o móvil sospechoso en tierra; la medición de los niveles de polución en diferentes lugares de la ciudad y a diferentes alturas, determinando por ejemplo que zonas necesitan más arborización o no; y pensando más a futuro, por ejemplo sistemas de conteo de vehículos en intersecciones altamente transitadas. Como trabajos futuros estamos realizando una ampliación del trabajo de percepción con la cámara, de tal manera que a través de Homografías sea posible medir obtener el modelo RPY del vehículo y sus velocidades. Una vez se puedan medir todas las variables de estado, se pretende implementar estrategias de control más robustas que incluyan las posibles perturbaciones y por ende aumenten la estabilidad del vehículo. Finalmente, cada una de estas mejoras irá acompañada de una aplicación de interés y en lo posible adquirir un dirigible para exteriores, cuyos actuadores sean más diversos y permitan controlar mejor la planta.

Referencias

1. Airship. Airship Launches the First End-to-End Video Surveillance Platform. http://www.airshipdvr.com/ enterprise_video_surveillance.html. Consultada el 15 de septiembre 2008.        [ Links ]

2. G. Kantor, D. Wettergreen, J. Ostrowski, S. Singh. “Collection of Environmental Data From an Airship Platform”. Proceedings of the SPIE Conference on Sensor Fusion and Decentralized Control IV. Bellingham. WA. Vol. 4571. 2001. pp. 76-83.        [ Links ]

3. Science Daily. Purdue Team to Float High Altitud Airship for Weather Security. http://www.sciencedaily. com/releases/2005/03/050329135943.htm. Consultada el 12 de septiembre 2008.        [ Links ]

4. S. Lacroix. Toward Autonomous Airships: Research and Developments at LAAS/CNRS. France, Internal Report, LAAS / CNRS. 2000. pp. 3-9.        [ Links ]

5. P. R. Newswire Europe Ltda. Optus Trials IT IS Cellular Floating Vehicle Data Technology in Sydney Australia. http://www.prnewswire.co.uk/cgi/news/ release?id=184712. Consultada: el 2 de octubre 2008.        [ Links ]

6. N. Simmons, G. Gates, J. Burr. “Commercial Applications Arising from a Floating Vehicle Data System in Europe”. 9 World Congress on Intelligent Transport Systems. London. U.K. 2006. pp. 2-8.        [ Links ]

7. El Espectador. Agencia EFE. “Este Año se han Robado más de 6000 Carros”. http://www.elespectador.com/ noticias/nacional/articulo-ano-se-han-robado-mas-de- 6000-carros Consultada el 14 de septiembre de 2008.        [ Links ]

8. Redacción, El Periódico. “Cada día 52 Carros son Robados en Colombia”, http://www.elperiodico.com. co/seccion.php?codigo=13113&seccion=1&fecha=20 08-09-01. Consultada el 15 de octubre 2008.        [ Links ]

9. J. Craig. Introducción a la Robótica. 2a ed. Pearson Educación. México. 2006. pp. 19-180.        [ Links ]

10. T. Fossen. Guidance and Control of Ocean Vehicles. John Wiley & Sons. 2003. pp. 5-353.        [ Links ]

11. H. Goldstein. Mecánica Clásica. Editorial Reverté.Madrid. 1996. pp. 34-238.        [ Links ]

12. S. Van der Zwaan. Vision Based Station Keeping and Docking for Floating Robots. Msc. Thesis. Instituto Superior Técnico. Lisboa. 2001. pp. 47-61.        [ Links ]

13. S. B. V. Gomes. J. G. Ramos. “Airship dynamic modeling for autonomous operation,” Proceedings IEEE International Conference on Robotics and Automation. Leuven. Belgium. 1998. Vol.4. pp. 3462- 3467        [ Links ]

14. F. Da Silva, L. García. Vision Based Control of an Autonomous Blimp, Universidad Técnica de Lisboa. Instituto Superior Técnico. Lisboa. 2003. pp. 3-67.        [ Links ]

15. O. Katsuhiko. Sistemas de Control en Tiempo Discreto. 2a ed. Ed. Prentice - Hall. New Jersey. 1996. pp. 173-474.        [ Links ]

16. R. Gonzales. R. E Woods. Tratamiento Digital de Imágenes. Ed. Addison-Wesley Iberoamericana. Wilmington. 1996. pp. 1-773.        [ Links ]

(Recibido el 27 de noviembre de 2008. Aceptado el 9 de mayo de 2009)

Autor de correspondencia: teléfono: + 57 + 2 + 332 79 27, fax: + 57 + 2 + 339 21 40, evbacca@univalle.edu.co (B. Bacca).

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License