SciELO - Scientific Electronic Library Online

 
vol.36 issue1Statistical model for characterizing and optimizing peripheral pumps.Evaluation of tangential and radial stresses on thick walled concrete cylinders under internal pressure author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Ingeniería y Desarrollo

Print version ISSN 0122-3461On-line version ISSN 2145-9371

Ing. Desarro. vol.36 no.1 Barranquilla Jan./June 2018

https://doi.org/10.14482/inde.36.1.10937 

Artículos originales

Fusión e integración sensorial de lidar con visión estéreo y Kinect para análisis de profundidad

Sensory fusion and integration of lidar with stereo vision and Kinect for analysis of depth

Sandra Carolina Imbachí* 

Jeison Eduardo Vivas García** 

Juan Fernando Flórez***  a 

*Ingeniera Física, Universidad del Cauca. Sin afiliación. carolinaimbachi@gmail.com

**Ingeniera Físico, Universidad del Cauca. Sin afiliación. jevivasg@unal. edu.co

***Magister en Electrónica y Telecomunicaciones. Actualmente se desempeña como docente en el Programa de Ingeniería en Automática Industrial en la Universidad del Cauca. jflorez@unicauca.edu.co


Resumen

En este artículo se presenta la fusión e integración sensorial de un sistema lidar con dos cámaras de visión estéreo y un Kinect para la medición de profundidad; se utilizan los filtros de máxima verosimilitud y de Kalman para el procesamiento de los datos. Se realizó una fusión hardware y, posteriormente, una integración software, con el fin de efectuar pruebas a 0,68; 1,5; 2; 2,5; y 4 m. Se obtuvo que la fusión hardware de mejor desempeño fue lidar-Kinect con un error promedio de 1,08 %, y que a su vez el filtro Kalman brinda un mejor procesamiento y veracidad de los datos en ambas fusiones, con un error promedio del 1,35 %.

Palabras clave: Filtraje; fusión; integración; profundidad; sensorial

Abstract

Sensory integration and fusion of a lidar system with two stereo vision cameras and Kinect for measuring depth is presented; filtering methods using maximum likelihood and Kalman for processing of data. it was developed a hardware fusion and later a software integration in order to carry out tests to 0,68, 1,5, 2, 2,5 and 4 m. Getting that the hardware fusion lidar-Kinect has the best result with an average error 1,08 %, and in turn the Kalman filter provides better support for processing and accuracy of the data for both fusions with an average error of 1,35 %.

Keywords: Depth; filtering; fusion; integration; sensory

I. INTRODUCCIÓN

La visualización en 3D por sistemas computacionales ha presentado grandes retos, ya que la adquisición de datos por medios convencionales (cámaras de visión estéreo) es en 2D [1]. El análisis en 3D por procesamiento de imágenes apareció primero con configuraciones y disposiciones adecuadas en pares de cámaras de visión estéreo [2], y posteriormente se han inventado elementos especializados para la medición en una dirección determinada (LIDAR) [3], o elementos multisensoriales integrados que brindan mayor información del entorno (Kinect) [4]. Existen otros elementos para esta función tales como los sensores tof (time of fligth) [5] y los sensores de relación de intensidad [6], entre otros; sin embargo, su efectividad no es alta (menor al 80 %), o sus métodos de procesamiento son complejos. Por otra parte, el LIDAR se usa en agricultura con el fin de revisar el estado de las plantaciones [7], y en el automovilismo inteligente para la detección de obstáculos [8]. El Kinect, además de usarse como interfaz para videojuegos [9], ha sido incorporado en el reconocimiento de posturas de la mano [10] y el control de altitud de un cuadricoptero [11].

En las medidas tridimensionales, la de mayor dificultad de integrar y procesar es la medida de profundidad [12]. Por tanto, se han realizado estudios con el fin de analizar adecuadamente esta magnitud e incorporar su aplicación [13] desde métodos clásicos [14], [15], últimas tecnologías [16] y unión de distintas técnicas [17]. Si bien los análisis arrojaron ciertos resultados que han ayudado a orientar este artículo, se encuentran ciertas carencias que se compensan de manera adecuada con conocimientos teóricos que se interrelacionan entre sí [18]. Al efectuar una medida se pueden utilizar uno o múltiples sensores que, con un adecuado análisis y elección (filtro) de los datos que provienen de estos, permitirán alcanzar una mayor confianza en la medición [19], [20].

Debido a que la visión 3d computacional es compleja (especialmente el eje de profundidad) a causa de error en los datos o redundancia excesiva en ellos, en el presente artículo se expondrá la incorporación de dos pares de sensores ópticos (visión estéreo-LIDAR y Kinect-LIDAR) para la medida de profundidad por medio de la fusión e integración sensorial, con procesamiento de los datos obtenidos por filtros de máxima verosimilitud [21] y de Kalman [22]. En este trabajo se evidencia cómo en los diferentes rangos de medidas de profundidad (0,68, 1,5, 2, 2,5 y 4 m) obtenidos con los dos sistemas de fusión sensorial -en particular la fusión Kinect-LIDAR e integración con filtro de Kalman-, sus errores absolutos son de menor valor en comparación con la medición por sensores individuales.

II. METODOLOGÍA Y MATERIALES

La interacción adecuada de los datos de diversos sensores que intervienen en una medición se debe diseñar de forma apropiada por medio de parámetros y técnicas que ayuden al control de los sensores y la información que ellos brindan [23]. Una de estas formas es la fusión e integración sensorial; la fusión se puede ver como la combinación de diferentes datos (de uno o varios sensores, en un mismo tiempo o instantes diferentes), y, por su parte, la integración es el uso de dicha información para la toma de decisión en un sistema de control [24], [25]. La idea básica de la fusión e integración multisensorial consiste en que la información obtenida por múltiples sensores puede llegar a ser más valiosa que la de un solo sensor, ya que los posibles errores en una medida se pueden compensar o reducir al efectuarla más de una vez [26].

En el análisis estadístico se necesitan planteamientos y algoritmos matemáticos (filtros) a fin de procesar y entender toda la información, de modo que en la integración sensorial se pueden aplicar dos técnicas: el filtro de máxima verosimilitud y el filtro de Kalman. Se trabaja con estos dos métodos ya que los filtros de media, mediana y moda solo ejecutan procesos de aproximación de primer orden, por lo que la influencia de datos erróneos, constantes o atípicos en el resultado es alta [27]. El primero se usa para ajustar un modelo y encontrar sus parámetros; es una extensión del proceso de decisión mediante el cual se calcula el valor de un parámetro al utilizar los valores de múltiples medidas relacionadas con dicho parámetro [27], [28]. Esta técnica enfocada en la fusión sensorial busca el valor de θ (entre todos los posibles) que haga más verosímil (más probable) el resultado que se ha obtenido. Para ello se calcula la función de probabilidad P (B;N|θ) y se elige el valor de θ que tenga mayor probabilidad [29]; de acuerdo con una distribución normal de los datos el planteamiento matemático de la función de verosimilitud θ = (μ, σ) [29] es:

El filtro de máxima verosimilitud trabaja con variables continuas, por lo que el análisis en sistemas computacionales utiliza aproximaciones de esta técnica [30]. Por otra parte, el filtro de Kalman es una herramienta matemática que se usa cuando se incluyen medidas del mundo real en el sistema lineal con el que se trabaja directamente [31]. El objetivo del filtro de Kalman es estimar los estados de una manera óptima, de forma que se minimice el índice del error cuadrático medio, por lo que representa una creencia o confianza en el estado xt en el tiempo t que viene dada por la media xt, y la covarianza pt. La entrada que recibe el filtro es la creencia en el tiempo t - 1, representada por xt -1 y pt-1. A fin de actualizar esta creencia también se necesitan las señales de control (ut) y las observaciones del entorno que proporcionan los sensores (zt). La salida del filtro de Kalman es la creencia en el instante de tiempo t, representada por xt y pt [31]-[33]. Por esta razón se busca un estimador óptimo del estado. Suponiendo que xˆk es la estimación en el instante k del estado, y zk+1 es el observador del estado xk en el instante k en el cual se le adiciona la incertidumbre del sensor y del sistema, el error se define como la diferencia entre el valor real del estado y la estimación (ecuación 2) [33].

El objetivo es minimizar el error en el n-ésimo estado. La matriz de covarianza del error es P (n) (ecuación 3) [32].

El algoritmo se ejecuta en dos pasos de forma iterativa [32]:

Predicción: antes de tener el valor Zk+1.

Corrección o actualización del estado, una vez conocido Zk+1.

En el presente artículo (conforme a investigaciones anteriores [13] y modificaciones pertinentes para este estudio [20]) se concibió una plataforma multisensorial que consta de dos partes: la primera, un componente hardware de fusión sensorial (HFS), y un segundo componente software de integración sensorial (SIS). Para el HFS se utilizaron como materiales: un radar láser Allen Bradley referencia Safe Zone Scanner Laser Multizone (LIDAR), cámaras Life Cam HD- 5.000, un Kinect, un cable serie RS232, una fuente de alimentación de 12 V/3 Amp, un conversor USB-Serie y un computador con procesador Intel core i5 de 2,3 ghz con memoria RAM de 4GB. Para la unión de los sensores se realizó un montaje constituido de cinco piezas: cuatro placas metálicas que permiten ajustar el escáner láser a una base superior en el eje vertical, la cual sostiene el sistema de visión. El HFS (Fig.1) presenta dos combinaciones de fusión sensorial: visión estéreo- LIDAR (Fig.1.a) y Kinect-LIDAR (Fig.1.b), ambos montajes tienen alineados sus centros de proyección.

Figura 1 Combinaciones de fusión sensorial del HFS 

En el SIS se implementan los filtros de máxima verosimilitud y Kalman. Estos algoritmos se programaron para el manejo de los datos obtenidos por el HFS en Open CV y lenguaje c++ con interfaz basada en qt. En este proceso se retoma una serie de algoritmos de trabajos previos [2], [13], [33], que se modificaron de acuerdo con las necesidades presentadas en la fusión sensorial. Por esta razón se realizó un diseño modular de acuerdo con las combinaciones: visión estéreo-LIDAR (Fig.2) y Kinect-LIDAR (Fig. 3).

Figura 2 Diseño modular del sistema visión estéreo-lidar 

Figura 3 Diseño modular del sistema Kinect-LIDAR 

A. Visión estéreo- LIDAR

El sistema de visión estéreo entrega una matriz de 320 x 240 datos, con información de las distancias a la que se encuentra un objeto en la escena, presente en la señal Reconstrucción 3d del entorno (Fig. 2). Esta se envía al módulo Procesamiento Visión Estéreo, el cual ejecuta un algoritmo encargado de calcular la señal Perfil de Distancias y δvisión, que denota el error del perfil de distancias de la visión estéreo. El sistema LIDAR entrega un vector de 720 datos con la información de la profundidad a la que se encuentra un objeto en la escena, denominado “Perfil de profundidades”, el cual se envía al módulo Procesamiento LIDAR que calcula la señal Perfil de Distancias y δláser, que denota el error del perfil de distancias del LIDAR. Las señales Perfil de Distancias Visión Estéreo y Perfil de Distancias Láser se compensan por las señales de error de los perfiles en el módulo de integración sensorial, de manera que se obtiene el vector de distancias de los datos fusionados en la señal Perfil de Datos Fusionado.

B. Kinect-LIDAR

El sistema Kinect brinda una imagen en escala de colores con información de las distancias a la que se encuentra un objeto en la escena, lo cual se procesa con un algoritmo a fin de obtener la señal Perfil de Distancias Kinect y δ Kinect (Fig. 3), que representa el error del perfil de distancias del Kinect. Los algoritmos empleados para la obtención de datos de profundidad se basaron en el software de código abierto RGBDemo [34].

III. RESULTADOS Y DISCUSIÓN

Escenarios de prueba

Se emplearon cuatro escenarios de prueba (Fig. 4) para las dos combinaciones del HFS. Los escenarios fueron usados para rangos de mediciones mayores y menores a un metro, el primero (Fig. 4.a) consta de dos cubos de cartón colocados en una mesa de 70 cm, el más grande con una cara perpendicular al eje de proyección óptica y el cubo menor tiene una leve inclinación respecto al otro. El segundo escenario (Fig. 4.b) consiste de tres cubos de cartón y un pequeño paralelepípedo todos sobre una mesa de 70 cm; cada objeto tiene una de sus caras perpendicular al eje de proyección óptico, y ambos escenarios se utilizaron en la combinación visión estéreo- LIDAR. En el tercer (Fig. 4.c) y cuarto (Figura 4.d) escenario se realizó la medición a 1 m de altura con diversos objetos, posicionando cada uno con una de sus caras perpendicular al eje de proyección de los sensores; estos últimos escenarios se usaron en la combinación Kinect-LIDAR.

Figura 4 Escenarios de prueba para 

Sistema visión estéreo-lidar

Con el fin de validar el sistema visión estéreo-LIDAR se realizaron tres pruebas en las que se colocaron obstáculos a distancias de 0,68, 1,5 y 2 m en el escenario de prueba 1 (Fig. 4.a). El límite se fijó en 2 m, ya que a partir de esta distancia el sistema no es operativo. Se indica con una línea horizontal en la Fig. 4.a la correlación visión estéreo (VE) y LIDAR. A los datos obtenidos en cada prueba se realiza integración sensorial con el filtro de máxima verosimilitud (MV) (figuras 5.a, 5.c y 5.e) y con el filtro de Kalman (figuras 5.b, 5.d y 5.f).

Figura 5 Resultados de integración sensorial del sistema visión estéreo- LIDAR 

Los resultados con los filtros fueron ordenados (Tabla 1) con respecto a las distancias tomadas con visión estéreo (Z Visión), el LIDAR (Z Láser) y el resultado de la integración (Z Int), el error absoluto asociado a cada uno de ellos (EA visión, EA Láser y EA Int, respectivamente) y el promedio de estos.

Tabla 1 Resultado promedio de las tres pruebas sistema VE-LIDAR 

Según la prueba 1 la integración sensorial con el filtro de máxima verosimilitud presenta un error de 33 cm, mientras que el filtro de Kalman presenta un error de 1 cm. En la prueba 2 con el filtro de máxima verosimilitud presenta un error de 49 cm, mientras que el filtro de Kalman presenta un error de 3cm. En la prueba 3 con el filtro de máxima verosimilitud presenta un error de 1,03 cm, mientras que el filtro de Kalman presenta un error de 5 cm.

Sistema Kinect-LIDAR

Con el fin de comprender la fusión e integración sensorial en el sistema Kinect-LIDAR se presentan 15 resultados promedio de 10 datos fusionados a una distancia aproximada de 0,67 m del sistema, con su respectivo equivalente tomado del Kinect y el LIDAR (véase la Tabla 2). En estos la integración con el filtro de Kalman corrige los valores erróneos de distancia 0 -desde las posiciones 284 hasta 290- del Kinect, a diferencia del filtro de máxima verosimilitud.

Tabla 2 Resultados promedio de la integración sensorial con filtros mv y Kalman a 0,67 m  

Para la validación del sistema Kinect-LIDAR se utilizaron los escenarios de prueba 2 (Fig. 4.b), 3 (Fig. 4.c) y 4 (Fig. 4.d), en los que se indica con una línea horizontal el perfil de línea que correlaciona el Kinect y LIDAR, para mediciones a 0,67, 2,5 y 4 m respectivamente. Se llevó a cabo la integración de los datos al realizar la interpolación de los datos nulos o incorrectos del Kinect por medio del filtro de máxima verosimilitud (Fig. 6.a, 6.c, 6.e), y el filtro de Kalman (Fig. 6.b, 6.d, 6.f).

Figura 6 Resultados de integración sensorial del sistema Kinect-LIDAR 

Se presentan los resultados obtenidos (Tabla 3) al realizar la integración sensorial con el filtro de máxima verosimilitud y de Kalman. En estos se observan las distancias tomadas con el Kinect (Z Kinect), el láser (Z Láser), el resultado de fusionarlos (Z Int), el error absoluto asociado a cada uno de ellos (EA Kinect, EA Láser y EA Int respectivamente) y el promedio de estos.

Tabla 3 Resultado promedio de las pruebas sistema Kinect-LIDAR 

Con respecto a la prueba 1 y 2, la integración sensorial con el filtro de máxima verosimilitud y el filtro de Kalman presenta un error de 1 cm. Por otra parte, la integración sensorial de la prueba 3 por máxima verosimilitud presenta un error de 10 cm, y el filtro de Kalman presenta un error de 1 cm.

De las dos fusiones de sensores se obtuvieron distintos resultados en conformidad con los escenarios de prueba. Esta información se procesó y filtró por las técnicas de máxima verosimilitud y de Kalman, lo que arrojó errores porcentuales para cada caso (Tabla 4).

Tabla 4 Errores porcentuales en medición de profundidad de las dos técnicas de integración sensorial 

IV. CONCLUSIONES

Se desarrollaron dos sistemas de fusión sensorial: visión estéreo-LIDAR, con un rango de medida comprendido entre 0,68 y 2,0 m, y un sistema de Kinect-LIDAR capaz de efectuar medidas entre 0,67 y 4,0 m; asimismo, dos herramientas software de integración sensorial por los filtros de máxima verosimilitud y Kalman.

La fusión sensorial de visión estéreo-LIDAR presenta un error porcentual general (EPG) de 23,28 % y, por otra parte, la unión Kinect-LIDAR arroja un EPG de 1,08 %. A su vez, el filtro de máxima verosimilitud tiene un EPG de 23,06 %, y el filtro de Kalman un EPG de 1,35 %. De esta manera, la fusión sensorial de mejor rendimiento es Kinect-LIDAR, y el procesamiento de mayor veracidad es el filtro de Kalman.

Los resultados obtenidos se deben a que el filtro de estimación de máxima verosimilitud se rige según las covarianzas dadas por los sensores, ya que el láser mide distancias lejanas y su covarianza es mayor que la del Kinect o las dos cámaras de visión estéreo, las cuales presentan datos en un rango más cercano. Por el contrario, el filtro de Kalman, a pesar de recibir información errada estima y corrige el valor de la medida, de manera que es una técnica robusta para la fusión e integración de datos.

Agradecimientos

Los autores agradecen al departamento de Electrónica, Instrumentación y Control de la Universidad del Cauca, por el apoyo recibido en la realización del presente proyecto.

REFERENCIAS

[1] D. Murray, C. Jennings, “Stereo vision based mapping and navigation for mobile robots”, Proceedings of International Conference on Robotics and Automation., pp. 2-7, Abril 1997. doi: 10.1109/ROBOT.1997.614387 [ Links ]

[2] D. A. Revelo-Luna, F. D. Usama, J. F. Flórez-Marulanda, “Reconstrucción 3d de escenas mediante un sistema de visión estéreo basado en extracción de características y desarrollado en opencv”, Ingeniería y Universidad., vol. 16, n.o 2, pp. 485-500, diciembre 2012. [ Links ]

[3] M. Chen, G. Wang, X. Wang, Q. Hong, “LIDAR depth indicator of the design and research”, Proceedings - 3rd International Conference on Measuring Technology and Mechatronics Automation, ICMTMA 2011, vol. 2, pp. 467- 469, septiembre 2011. [ Links ]

[4] I. Oikonomidis, N. Kyriazis, A. A. Argyros, “Efficient Model-based 3d Tracking of Hand Articulations using Kinect”, 22nd British Machine Vision Conference., pp. 1-11, marzo 2011. doi: http://dx.doi.org/10.5244/C.25.101Links ]

[5] S. Y. Kim, J. H. Cho, A. Koschan, M. A. Abidi, “Spatial and temporal enhancement of depth images captured by a time-of-flight depth sensor”, Proceedings - International Conference on Pattern Recognition., pp. 2358- 2361, 2010. [ Links ]

[6] B. Carrihill, R. Hummel, “Experiments with the intensity ratio depth sensor”, Computer Vision, Graphics, and Image Processing, vol. 32, n.o. 3, pp. 337- 358, 1985. [ Links ]

[7] U. Weiss, P. Biber, “Plant detection and mapping for agricultural robots using a 3d LIDAR sensor”, Robotics and Autonomous Systems, vol. 59, n.o 5, pp. 265-273, 2011. [ Links ]

[8] J. Han, D. Kim, M. Lee, M. Sunwoo, “Enhanced road boundary and obstacle detection using a downward-looking lidar sensor”, IEEE Transactions on Vehicular Technology, vol. 61, n.o 3, pp. 971-985, 2012. [ Links ]

[9] Z. Zhang, “Microsoft kinect sensor and its effect”, IEEE Multimedia., vol. 19, n.o 2, pp. 4-10,2012. [ Links ]

[10] Z. Ren, J. Yuan, J. Meng, Z. Zhang, “Robust part-based hand gesture recognition using kinect sensor,” IEEE Transactions on Multimedia., vol. 15, n.o 5, pp. 1110-1120, 2013. [ Links ]

[11] J. Stowers, M. Hayes, A. Bainbridge-Smith, “Altitude control of a quadrotor helicopter using depth map from Microsoft Kinect sensor,” 2011 IEEE International Conference on Mechatronics, pp. 358-362, 2011. [ Links ]

[12] R. Senthilnathan and R. Sivaramakrishnan, “Focus measures for sff-inspired relative depth estimation”, 2012 International Conference on Machine Vision and Image Processing., pp. 185-188, junio 2012. doi: 10.1109/MVIP.2012.6428791 [ Links ]

[13] P. A. Muñoz, S. C. Imbachí, J. F. Flórez, “Sistema de detección de obstáculos con radar láser “, Ingeniería y Desarrollo, vol. 32, n.o 2, pp. 200-217, julio 2014. doi: http://dx.doi.org/10.14482/inde.32.2.5406Links ]

[14] W. Kazmi, S. Foix, G. Aleny, H. J. Andersen, “Indoor and outdoor depth imaging of leaves with time-of-flight and stereo vision sensors: Analysis and comparison”, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 88, pp. 128-146, febrero 2014. doi: http://dx.doi.org/10.1016/j.isprsjprs.2013.11.012Links ]

[15] Q. Wang, Z. Yu, C. Rasmussen, J. Yu, “Stereo vision-based depth of field rendering on a mobile device”, Journal of Electronic Imaging, vol. 23, n.o 2, pp. 9-23, febrero 2014. doi: http://dx.doi.org/10.1117/1.JEI.23.2.023009Links ]

[16] J. Weidi, Y. Won-Jae, J. Saniie, E. Oruklu, “3d image reconstruction and human body tracking using stereo vision and Kinect technology”, Electro/ Information Technology (EIT), 2012 IEEE International Conference,ieee Int. Conf., pp. 1-4, enero 2012. [ Links ]

[17] J. Han, L. Shao, J. Xu, Dong Shotton, “Enhanced computer vision with Microsoft kinect sensor: a review”, IEEE Transactions On Cybernetics., vol. 25, n.o 3, pp. 233-235, octubre 2013. [ Links ]

[18] R. C. Luo, K. L. Su, K. H. Tsai, “Fire detection and isolation for intelligent building system using adaptive sensory fusion method”, Proceedings 2002 IEEE International Conference on Robotics and Automation, vol. 2, pp. 1777- 1781, mayo 2002. [ Links ]

[19] R. C. Luo, O. Chen, “Wireless and pyroelectric sensory fusion system for indoor human/robot localization and monitoring”, IEEE/ASME Transactions on Mechatronics, vol. 18, n.o 3, pp. 845-853, febrero. 2013. [ Links ]

[20] S. C. Imbachí, Vivas Eduardo, “Diseño, implementación y validación de un sistema de fusión sensorial que integre los sistemas visión estéreo y el safe zone escáner láser”, trabajo de pregrado, Universidad del Cauca, Ingeniería Física, Popayán, 2014. [ Links ]

[21] M. Banbura, Marta Modugno, “Maximum likelihood estimation of factor models on datasets with arbitrary pattern of missing data”, Journal of Applied Econometrics, vol. 47, no. 4, pp. 36-37, diciembre 2012. [ Links ]

[22] K. Li, Y. L. Zhang, Z. X. Li, “Application research of Kalman filter and svm applied to condition monitoring and fault diagnosis”, Applied Mechanics and Materials, vol. 121-126, pp. 268-272, mayo 2011. [ Links ]

[23] F. Macías-Sanabria, “Estudio, implementación y evaluación de un sistema de seguimiento de múltiples locutores usando fusión audiovisual”, Máster Oficial en Sistemas Electrónicos Avanzados. Sistemas Inteligentes, Universidad de Alcalá-Escuela Politécnica Superior, Departamento de Electrónica, España, 2010. [ Links ]

[24] E. Vallejo-Rodriguez, “Fusion e integración de sistemas sensoriales artificiales utilizados en robótica”, Ingenieria & Desarrollo. pp 60-75, julio 1999. [ Links ]

[25] D. A. Navarro-García, “Contribución a la autolocalización de robots móviles basada en la fusión de información multisensorial”, Tesis Doctoral, Universitad de Valencia, Valencia, España, 2009. [ Links ]

[26] I. Bloch, “Information combination operators for data fusion: A comparative review with classification”. IEEE Transactions on systems, man, and cybernetics- Part A: systems and humans, vol. 26, n.o1, pp. 52 - 66, enero 1996. doi: 10.1109/3468.477860 [ Links ]

[27] S. Yañez-Canal, “R. A. Fisher el genio. La estadística una ciencia del sigloXX”, Revista Colombiana de Estadística, vol. 23, n.o 2, pp. 1-14, febrero 2000. [ Links ]

[28] J. A. López-Orozco, “Integración y fusión multisensorial en robots móviles autónomos”, Memoria para Optar por el grado de Doctor, Universidad Complutense de Madrid, Madrid, España, 1998. [ Links ]

[29] L. Scharf, C. Demeure, Statistical signal processing: Detection, estimation, and time series analysis. Reading, ma: Addison-Wesley, 1991. [ Links ]

[30] F. Delbaen, R. Gallant, L. Hansen, P. Mykland, P. C. B. Phillips, R. Poulsen, et al., “Maximum likelihood estimation of discretely sampled”, IEEE transactions on systems, man and cybernetics-Part A: systems and humans, vol. 70, n.o 1, pp. 223-262, marzo 2002. [ Links ]

[31] G. Welch, G. Bishop, An introduction to the Kalman Filter. Chapell Hill, NC: University of North Carolina, 2006. [ Links ]

[32] G. Aznar, “FSR-BAY: Modelo probabilístico para la fusión sensorial robótica”, Tesis Doctoral, Universidad de Alicante, España, 2006. [ Links ]

[33] J. Simon, J. Uhlmann, “New extension of the Kalman filter to nonlinear systems”. AeroSense’97. International Society for Optics and Photonics, vol. 40, n.o 1, pp. 124-152, abril 1997. [ Links ]

[34] J. Webb, J. Ashley, Beginning Kinect programming with the Microsoft Kinect SDK. Apress, 2012. [ Links ]

Recibido: 12 de Septiembre de 2016; Aprobado: 10 de Septiembre de 2017

aCorrespondencia: Juan Fernando Flórez. Calle 5 # 4-70 B/ Sector Histórico, Popayán (Cauca). Tel. 3104902949.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons