SciELO - Scientific Electronic Library Online

 
vol.80 número179MODEL FOR CALCULATING THE STORAGE COST OF A PRODUCT: STUDY CASE IN A LOGISTICS ENVIRONMENTSIMILARITY METRICS APPLIED TO IMAGE ANALYSIS OF PHOTOELASTICITY índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


DYNA

versão impressa ISSN 0012-7353

Dyna rev.fac.nac.minas vol.80 no.179 Medellín maio/jun. 2013

 

DISPOSITIVO DE NAVEGACIÓN PARA PERSONAS INVIDENTES BASADO EN LA TECNOLOGÍA TIME OF FLIGHT

NAVIGATION DEVICE FOR BLIND PEOPLE BASED ON TIME-OF-FLIGHT TECHNOLOGY

 

ISMAEL LENGUA
Ing., Universitat Politécnica de València,España ilengua@dig.upv.es

LARISA DUNAI
Dr., Universitat Politécnica de València, España, ladu@upv.es

GUILLERMO PERIS FAJARNÉS
Dr. Universitat Politécnica de València España, gperis@upv.es

BEATRIZ DEFEZ
Universitat Politécnica de València, Doctor, bdefez@upv.es

 

Recibido para revisar 3 Diciembre de 2012, aceptado Abril 19 de 2013, versión final Mayo 5 de 2013.

 


RESUMEN: El artículo presenta un nuevo dispositivo de navegación y detección de obstáculos para las personas ciegas, basado en la tecnología Time-of-Flight y en sonidos acústicos. El dispositivo se ha desarrollado como un dispositivo de ayuda, complementario al bastón, para las personas invidentes. Su objetivo primordial es detectar los obstáculos e informar al usuario mediante sonidos acústicos de la locación de los mismos, tanto en distancia como en dirección. El dispositivo tiene un rango de trabajo entre los 0.5 m y 5 m en distancia y entre 30º izquierda y 30º derecha en azimut, con una precisión de 0,9º. El dispositivo informa a los usuarios mediante auriculares estéreo, de la presencia de los obstáculos situados en su camino. Está compuesto por un sistema de sensores 3D-CMOS montado en un par de gafas de sol, un FPGA que se encarga de procesar la información recibida por los sensores y transformarla en sonidos acústicos, y un par de auriculares estéreo.

Las pruebas experimentales llevadas a cabo demuestran el potencial que puede tener para las personas invidentes. Se prueba que con la ayuda del dispositivo acústico los usuarios se sienten más seguros a la hora de transitar por las calles, debido a que tienen una amplia información sobre el entorno que los rodea, más allá de la obtenida con el bastón.

PALABRAS CLAVE: Sensor 3D-CMOS, sonidos acústicos, dispositivo detector de obstáculos, personas ciegas

ABSTRACT: The paper presents a new navigation and object detector device for blind people based on Time-of-Flight technology and acoustic sounds. The device has been developed as a complementary device for blind people. Its main objective is to detect and localize the obstacles from the environment and inform to the user about their presence through acoustic sounds, both in distance and in azimuth. The device working area is from 0,5m up to 5m in distance and between 30º left and 30º right of the human head, with a precision of 0,9º.

The device architecture is based on glasses which contain a 3D-CMOS sensor, an FPGA with the whole electronics and software.

After a short experimental period it was possible to demonstrate the importance of the development of such device for the blind community. Due to the acoustic device, blind users were able to detect obstacles from the environment, localize and avoid them.

KEYWORDS: 3D-CMOS sensor, acoustic sounds, obstacle detector device, blind people.


 

1. INTRODUCCIÓN

En el mundo hay más de 282 millones de personas con discapacidad visual, entre los cuales 39 millones de personas son invidentes [1]. De todos ellos, 5,9 millones viven en África, 3,2 millones en Estados Unidos y 2 millones en Europa. En Alemania hay 150 mil personas con ceguera total y 500 mil personas con discapacidad visual [2]. 5 millones de invidentes viven en China [3]. La pérdida de visión viene acompañada de una pérdida de independencia: las personas invidentes son incapaces de aprovechar las ventajas de la navegación, interactividad social y comunicación. La movilidad según Foulke [4] representa "la habilidad de viajar con seguridad, confortablemente y de forma independiente por el entorno". Partiendo de las restricciones que conlleva la ceguera y de la definición de la movilidad, se puede deducir lo lejos que queda tal objetivo.

Con el enorme desarrollo de la tecnología desde el año 1890, se han buscado nuevas soluciones y se ha perseguido el desarrollo de nuevos Dispositivos Electrónicos de Ayuda a la Movilidad (DEAM) [5-6]. Los DEAM representan dispositivos inteligentes que tienen como objetivo superar las limitaciones humanas, percibir el entorno y representarlo a las personas invidentes mediante el tacto, vibraciones, habla o señales acústicas.

El primer DEAM, conocido como Neiszewski's Electroftalm, se desarrolló en 1897 por Starkiewicz y Kuliszewsky. Mediante dicho dispositivo, el usuario era capaz de distinguir entre luz y oscuridad [4]. En 1912 Nye y Bliss desarrollaron un nuevo dispositivo; D'Albe's Exploring Optophone. Este dispositivo [7], sigue una tecnología análoga al anterior, convirtiendo la luz en sonidos [8]. El principio de funcionamiento de estos dispositivos radica en el uso de un reproductor de sonidos que emite un sonido cuando disminuye la intensidad de la luz.

La mayoría de los dispositivos DEAM se clasifican según el sistema de adquisición de la información del entorno. Así, se distinguen varios grupos de DEAM: de ultrasonido, sensores o láser, Global Positioning System y de visión artificial también utilizada para los robots [9]. De los dispositivos basados en ultrasonidos los más destacados son el Lindsay Russel Pathsound [10-11], el Mowat Sonar Sensor [12] y el Sonicguide [13].

El Lindsay Russel Pathsound es un dispositivo detector de obstáculos que informa al usuario de la presencia de éstos mediante sonidos acústicos y sistema táctil. El dispositivo tiene tres tipos de sonido que representan tres distancias diferentes en dos zonas: la zona dentro del peligro y la zona fuera del peligro. La distancia máxima detectada es de 6 pies. A pesar de sus objetivos el dispositivo un ha llegado a ser comercial, ya que su diseño es muy voluminoso. El Mowat Sonar Sensor tiene una salida sonora y una táctil. El dispositivo emite un ultrasonido de forma cónica y elíptica de 15º de ancho y 30º de alto, cubriendo un área equivalente a la forma humana [13]. Su rango en distancia es de 1 a 4 metros. El dispositivo de ultrasonido más destacado es Sonicguide, también conocido como Binaural Sonar Electronic Travel Aid. El dispositivo está implementado en unas gafas y tiene como salida un sistema estereofónico. El Sonicguide emite una señal sónica de forma cónica que abarca desde 45º a la izquierda hasta 45º a la derecha con un rango de hasta cuatro metros de distancia, respecto a la línea central de visión del usuario. [14]. Según la variación del tono, el usuario es capaz de percibir y reconocer las distancias [15].

Entre los dispositivos de sensores o láser, los más destacados son los Laser Cane, Talking Light, Pilot Light, SONA; Easy Walker, etc.

Laser Cane o Light Amplification by Simulated emission of Radiation representa la integración del bastón con la tecnología láser [16]. El dispositivo utiliza el láser de galio-arsénico así como pequeñas baterías. El rango de detección es de hasta 4 metros e informa al usuario de la presencia de los obstáculos mediante señales acústicas [17].

Entre los dispositivos de navegación basados en Sistemas de Posicionamiento Global (GPS) destacan el MoBIC [18], el GPS Braile Note [19], el TORMES, el Loadstone GPS, el Personal Guidance System (PGS) [20], etc.

El dispositivo MoBIC está compuesto por el Pre-Journey System (MoPS), y por el Outdoor System (MoODS), que tiene como objetivo interpretar planos y navegar. Mediante el teclado, el usuario introduce su consulta sobre la ruta o actividad y el MoBIC, mediante sonidos, le da la respuesta [21-22]. El Personal Guidance System (PGS) tiene como objetivo proporcionar navegación a las personas invidentes tanto en entornos conocidos como en entornos nuevos y desconocidos, sin ayuda de un guía [23]. El rango de trabajo del PGS es de 20 metros.

Entre los dispositivos basados en estereovisión encontramos al Navigation Assistance for Visually Impaired (NAVI), que es un dispositivo detector de obstáculos tanto estáticos como en movimiento lento [24]. Otro dispositivo interesante es el System for Wearble Audio Navegation (SWAN), que también permite la detección de obstáculos [25].

La principal desventaja de la mayoría de Dispositivos Electrónicos de Ayuda a la Movilidad para personas invidentes radica en que no proporcionan una información clara y en tiempo real. La información proporcionada a los usuarios no es suficiente para guiar al usuario de forma independiente y con seguridad, tanto en entornos cerrados como abiertos, comunica Hans Kaltwasser de la Deutshcher Blinden-und Sehbehindertenverband e.V. (DBSV).

Partiendo de las limitaciones de los dispositivos desarrollados hasta el presente: distancias cortas, sistema táctil, vibro-táctil (requiere un dispositivo adicional y da incomodidad al usuario), el sistema vocal (requiere mucho tiempo para informar al usuario), o sonidos acústicos (que son sonidos molestos) de los dispositivos existentes todavía a nivel de prototipo así como de las necesidades de las personas invidentes (Seguridad: evitar contacto con los obstáculos, desvío inseguro, no detectar o fallar a la hora de detectar escalones, etc.; Eficiencia: velocidad de caminar, continuidad del viaje, errores de navegación, desvíos de la trayectoria; frecuencia del viaje; distancia del viaje, familiarización y dificultad del viaje; Especificaciones del dispositivo: detección de signos, tiempo de búsqueda, tiempo de lectura, detección de estructuras de superficie y/o texturas, decrecimiento de la precisión de detección, determinación de dirección, determinación de distancia; el ratio de independencia del dispositivo; detección de objetos en entornos reales), los autores se marcaron el objetivo de desarrollar un dispositivo detector de obstáculos y navegación, basado en la tecnología láser, desarrollada para detección de obstáculos, evitar atropellos y accidentes para automóviles. El dispositivo finalmente desarrollado fue denominado Cognitive Aid System for Blind People (CASBliP). El CASBliP detecta los obstáculos e indica su localización y distancia precisa tanto de los obstáculos pequeños como de los obstáculos grandes, escalones o pasillos libres [26-27]. La información proporcionada no interfiere con los ruidos del entorno y no se transmiten datos erróneos [28]. Además la información proporcionada es clara y simple, rápidamente interpretada y sin necesidad de entrenamiento excesivo [29-30].

 

2. ARQUITECTURA DEL DISPOSITIVO

El principio de funcionamiento del dispositivo CASBliP se basa en el sistema cognitivo humano; el dispositivo electrónico escanea el entorno y el cerebro humano interpreta la dicha información.

El CASBliP está compuesto por un par de gafas en la que se ha implementado el sistema láser 3D-CMOS (Three Dimensional Complementary Metal Oxide Semiconductor), un FPGA (Field Programmable Gate Array) y un auricular estéreo (Figura 1). En la Tabla 1 se presentan las especificaciones técnicas del láser 3D-CMOS.

2.1. El sistema láser y el método de medida de las distancias
El sistema sensor está compuesto por 1x64 pixeles del láser miniaturizado implementado en unas gafas de sol adaptadas al circuito. La información recibida por los láseres se transmite a una memoria Correlated Double Sampling (CDS), en la que la distancia entre el sistema y los objetos se calcula mediante el método Time-of-Flight (ToF), y dicha información se transmite al sistema acústico. El usuario, mediante auriculares estéreo, percibe la posición en distancia y azimut (dirección) de los obstáculos situados en el área de visión del sistema.

El sistema permite obtener las medidas indirectas de los impulsos Time-Of-Flight del láser en magnitudes del orden de nano segundos (Figura 2). Sea h la amplitud y l la longitud de la señal x. Para calcular el tono del píxel y, hay que multiplicar la longitud de la señal por el número de píxeles utilizados n, por el número niveles en elevación m y por la amplitud de la señal h, de donde se obtiene:

El tono del píxel es 130 mm en horizontal y 300 mm en dirección vertical. Debido a que el sistema 3D-CMOS tiene solamente una línea de láseres, (1) se calcula como:

Cada píxel está compuesto por un foto diodo PD n-well/p-substrate una capacidad CD, una capacidad de sentido Csene0, una capacidad de reserva CHD, un conmutador de reajuste Φ1, un conmutador de selección Φ3, un búfer SF1, un conmutador de conexión Φ4 y un conmutador de binning Φ2 (Figura 3). El método de funcionamiento del circuito se basa en que la capacidad del foto diodo CD y la capacidad de sentido Csene0 periódicamente se reinician al potencial Uddpix obteniéndose una descarga. El tiempo de integración de la descarga está controlado por el conmutador de selección Φ3. La capacidad CHD lee el potencial restante almacenado en el Csene0.

Cuando el conmutador de conexión Φ4 se conecta, el potencial almacenado en el Csene0 se lee mediante la memoria CDS. Al mismo tiempo que el potencial se lee por la capacidad CHD del Csene0, se procede a la lectura del siguiente potencial. De esta forma el circuito realiza una lectura y almacenamiento de los potenciales prácticamente en tiempo real.

Para calcular las distancias entre el láser y el objeto, se ha utilizado el principio de medida Time-Of-Flight (TOF) mediante el Multiple Short Time Integrator (MDSI), así como un amplificador de la capacidad de conmutación análogo con la operación Correlated Double Sampling (CDS) [31].

El tiempo de propagación hasta el objeto y de vuelta al sensor 3D- CMOS, se calcula teniendo en cuenta la cantidad de radiación medida en el sensor, la reflexión con la superficie del objeto, la distancia entre el objeto y el emisor y, por fin, la radiación que incluye otras fuentes de luz del entorno.

Para poder calcular el tiempo y la distancia es imprescindible utilizar dos tiempos de integración. Sea TP el tiempo de propagación de la luz de láser, y un T1 el tiempo del integrador corto en el conmutador. Debido a que tenemos dos tiempos sincronizados, el tiempo T1 es igual al tiempo TP. En la segunda medida tenemos el tiempo T0 que representa el tiempo medido del impulso de láser reflejado en la superficie del objeto.

Teniendo el tiempo T0 se puede calcular el tiempo de propagación del impulso de láser:

Donde d es la distancia medida entre el objeto y el sensor, y el v es la velocidad de la luz.

En el tiempo T0 se obtiene un crecimiento del potencial U (ver Figura 3).

Según la Figura 4, el potencial registrado en el tiempo T1 es:

Donde U1 se guarda en la memoria CDS, y Elaser representa la radiación medida en el sensor. Para eliminar los factores externos, así como reflexión de los objetos, iluminación de fondo, etc., se mide un segundo tiempo T2 denominado tiempo de conmutación de la luz. El tiempo T2 ≥2TP

En el tiempo T2 el potencial registrado es:

Multiplicando y (5) se obtiene el valor receptivo y refractivo. Teniendo en consideración que el tiempo T1=TP se obtiene:

De donde se puede calcular el tiempo T0:

Sustituyendo (7) en (3), se puede calcular la distancia entre cada píxel de los 64 utilizados entre el sistema 3D-CMOS y la superficie del objeto:

2.2. Sistema acústico y método de producción de distancias mediante sonidos
El sistema acústico del dispositivo detector de obstáculos y navegación tiene como objetivo representar mediante sonidos acústicos los 64 valores de distancias enviados por el sistema del sensor 3D-CMOS. Con este fin, es imprescindible hacer un estudio exhaustivo de las propiedades del sonido a utilizar, medir y generar las Funciones de Transferencia, analizar las propiedades psicoacústicas de los sonidos generados y, finalmente, implementar dichos sonidos en el sistema final y verificar su eficacia. Para su funcionamiento, el sistema acústico está compuesto por un banco de sonidos de 64 sonidos ocupando 62º en azimutº y 16 niveles en distancia desde 0,5 cm hasta 5m (ver Tabla 2), que aumentan de forma exponencial. Para cada uno de los láseres se le ha atribuido un sonido específico.

Para generar los sonidos a cada distancia, se han utilizado las medidas de las Funciones de Transferencia (HRTF) en una sala anecoica con la ayuda de un robot KEMAR. Un Maximum Lenght Binary Sequence (MLBS) se utilizó como fuente sonora para la medida de los HRTFs.

Sea x1(t) la señal reproducida por el altavoz e y1(t) la señal grabada por el micrófono colocado en el canal audio del maniquí robot. Se diseña un filtro digital para transformar x1(t) en la señal x2(t) reproducida por el auricular. Sea X1 la representación del x1(t) en el dominio de la frecuencia, e Y2 la representación de x2(t). Al reproducir x1(t), la respuesta que se detecta se puede representar como:

Donde L representa la Función de Transferencia del altavoz con toda la cadena de audio de reproducción, F es la Función de Transferencia del espacio libre entre el altavoz y el canal auditivo, y M es la Función de Transferencia del micrófono y toda la cadena de audio de grabación. De la misma forma se calcula la respuesta grabada por el micrófono al reproductor x2(t).

Donde H representa la Función de Transferencia del auricular al canal auditivo. Si Y1=Y2 obtenemos el filtro digital:

Finalmente, al someter el sistema a una Secuencia Binar de Máxima Longitud (MLBS) que denominamos s(n), la respuesta del impulso periódica h(n) será:

Donde Φ es la correlación cruzada circular periódica. Para reducir el tiempo de cálculo se utiliza la Transformada Hadamard Rápida (FHT).

Donde P son las matrices de permutación y las S-las matrices de redimensionamiento, HL+1 representa la matriz Hadamard de orden L+1.

Para realizar la convolución con el sonido se ha utilizado la Transformada Fourier Discreta. En la Tabla 3 se presentan las características técnicas del sonido final.

Durante las pruebas experimentales participaron 20 personas (19 personas ciegas y una persona con visión reducida (casi nula) con edades comprendidas entre 26 y 69 años, tanto hombres como mujeres. Diez de los individuos eran de Alemania y diez de Italia. Todos poseían una buena capacidad auditiva y eran capaces de estimar la distancia y la dirección de los objetos. El grupo de usuarios abarcaba desde ciegos de nacimiento hasta personas con pérdida de visión entre 0 y 5 años debido a enfermedades o accidentes. El grupo de usuarios ha sido seleccionado por las asociaciones respectivas de Italia y Alemania, así como supervisados por los entrenadores de las dichas asociaciones.

Para las pruebas de aprendizaje se realizaron durante una semana siete ejercicios con distinto nivel de complejidad, desde la percepción de un simple obstáculo hasta la percepción de un obstáculo frente a una pared u otro obstáculo.

Después de superar con éxito las pruebas de aprendizaje, los participantes han pasado a la segunda prueba de navegación, denominada prueba de laboratorio.

La prueba de laboratorio consiste en un ejercicio de detección de obstáculos situados en forma de un pasillo de 14 m, haciendo uso de auricular. Utilizando cajas de cartón se han creado 4 pares de obstáculos colocados en paralelo a una distancia de 2,5m.

Durante la prueba, los participantes debían mover la cabeza a derecha y a izquierda para detectar los obstáculos y encontrar el pasillo libre.

En las pruebas en entorno real se han utilizado una variedad de emplazamientos: un patio del instituto (un lugar bien conocido por los participantes, pero con obstáculos construidos a base de cajas de cartón), una calle y, finalmente, un centro comercial.

 

3. RESULTADOS

La validación del dispositivo electrónico detector de obstáculos mediante el láser 3D-CMOS y sonidos acústicos se realizó mediante unas pruebas de aprendizaje, una prueba de laboratorio y mediante unas pruebas en entorno real. Las pruebas de aprendizaje tenían como objetivo el aprendizaje de percepción de sonidos acústicos mediante auriculares, esto es, la percepción de que los dichos sonidos provienen desde el entorno real y no de los auriculares, percibir las formas de los objetos que se crean mediante los sonidos acústicos y percibir la dirección y la distancia entre los sonidos y el usuario. Las pruebas se realizaron con el dispositivo electrónico, tanto con ayuda como sin ayuda del bastón.

En la Figura 4 se representan los resultados obtenidos de los siete ejercicios realizados por las personas invidentes de DBSV. Se puede observar importantes diferencias entre las tres pruebas. El promedio de tiempo de la primera prueba es de 3,29min, cuando la segunda prueba el resultado mejoro con 1,31min, y la diferencia entre el segundo con el tercer resultado es de 1,65 min.

Los resultados de las pruebas, reflejados en la Figura 5, revelan que el tiempo necesario para realizar el recorrido aumentó considerablemente cuando la prueba se hizo sin ayuda del bastón.

Comparar los resultados obtenidos con ayuda del bastón y los resultados conseguidos únicamente con ayuda del dispositivo electrónico no es uno de los objetivos del trabajo, ya que todos los participantes en el experimento tenían mucha experiencia en el uso del bastón y casi nula con el dispositivo.

Sin embargo, sí que se observaron mejoras respecto a la repetición de la prueba, lo que constituye un aliciente para seguir con la idea de que el dispositivo resulta viable y puede ser utilizado como método de navegación. Otra observación interesante es que, dado que los obstáculos estaban situados a una distancia cercana, la detección mediante bastón resultaba más fácil si cabe.

En todos los casos los participantes han demostrado una gran habilidad de navegación con el dispositivo teniendo en cuenta el tiempo reducido de práctica (sólo un mes). Es de destacar que, comparando todas las pruebas, la velocidad de navegación obtenida con el dispositivo acústico es la mitad que la velocidad de navegación utilizando el bastón.Esto se debe a la práctica de los participantes con el bastón. Sin embargo, se ha demostrado que utilizando el dispositivo electrónico desarrollado, los participantes ciegos eran capaces de percibir y detectar los obstáculos lejanos y no solamente los ubicados a un metro de distancia (lo cual es posible mediante bastón). Además el dispositivo les facilitaba la percepción de lo que les rodeaba, distinguiendo si se trataba de obstáculos estáticos o en movimiento. También les facilitaba el movimiento, ya que al saber lo que les rodeaba en un área de cinco metros cuadrados, los usuarios eran capaces y libres de tomar decisiones de seguir adelante o cambiar de trayectoria. En combinación con el bastón en entornos conocidos, los participantes podrían fácilmente identificar los obstáculos (por ejemplo, "ésta debe ser la farola" o "éste debe ser el kiosco") según se perciba el volumen asociado a los mismos. El entorno en el que la orientación ha resultado más complicada ha sido en un centro comercial lleno de gente, donde al principio los participantes se quedaban desorientados por la cantidad de información percibida.

La ventaja del dispositivo es la cantidad de información recibida mediante los auriculares que se transmite en tiempo real con una precisión de 0,97º en dirección y una distancia de 0,30 cm en distancia, gracias al sensor 3D-CMOS de gran precisión y a los sonidos acústicos empleados de gran calidad psicoacústica para reducir el tiempo de reproducción e incrementar la precisión y la suavidad del sonido.

 

4. CONCLUSIONES

En el presente artículo se ha presentado un nuevo dispositivo de navegación para las personas invidentes, basado en la tecnología láser y acústica. El dispositivo acústico desarrollado tiene la capacidad de detectar todos los obstáculos con una precisión de 99% para el sistema 3D-CMOS y un 95% para el sistema acústico. Al combinar las dos tecnologías, los usuarios ciegos son capaces de percibir y localizar todos los obstáculos que aparecen en el área de visión del dispositivo, desde 0,5m hasta 5metros en distancia y 60º en dirección. El dispositivo desarrollado es capaz de transmitir en tiempo real al usuario toda la información sobre los obstáculos del entorno, de forma que el usuario tiene la posibilidad de tomar decisiones sobre cómo actuar.

Con el Dispositivo Acústico desarrollado los resultados obtenidos han sido realmente impresionantes, los usuarios han sido capaces de detectar los obstáculos y esquivarlos en un par de horas de entrenamiento. Han sido capaces de percibir los sonidos del dispositivo como si provinieran desde el entorno y no desde los auriculares. Han sido capaces de percibir las formas y el material de los obstáculos (plano o con deformaciones, de madera, cemento o metal…).

 

AGRADECIMIENTOS

El trabajo ha sido apoyado por el proyecto Nº 2062 del programa PAID-06-11 de la Universitat Politècnica de València.

 

REFERENCIAS

[1] WBU (World Blind Union) Available: http://www.who.int/mediacentre/factsheets/fs282/en/ [Citado 28 de Abril 2013]         [ Links ]
[2] DBSV (Asociación alemana de ciegos y discapacitados visuales). http://www.dbsv.org/infothek/zahlen-und-fakten/ [Citado 20 de Junio 2012]         [ Links ].
[3] ChinaDis Available: http://disabilitychina.org/admin/upLoadPic/2009326152139974.pdf [Citado 10 de Mayo 2012]         [ Links ].
[4] Starkiewicz, W. and Kuliszewsky, T. Active energy radiating system: the 80-channel Electroftalm. Proceedings Int. Congress on Technology and Blindness. Vol. 1. 157-166, 1963.         [ Links ]
[5] Nye, P.W. and Bliss, J.C., Sensory aids for the blind: A challenging problem with lessons for the future. Proceedings of the IEEE. Vol. 58-12. pp. 1878-1898, 1970.         [ Links ]
[6] Capp, M., and Picton, P.D., The optophone: An electronic blind aid. Engineering Science and Education Journal. Vol. 9-3. pp. 137-143, 2000.         [ Links ]
[7] Dakopoulos, D. and Bourbakis, N.G., Wearable Obstacle Avoidance Electronic Travel Aids for Blind: A Survey. IEEE Transactions on Systems, Man, and Cybernetics, Part C: Applications and Reviews, 40, 1, pp. 25-35, 2010.         [ Links ]
[8] Dunai, L., Peris Fajarnes, G., Praderas, S., V., and Defez G., B., Electronic travel aid systems for visually impaired people. Proceedings of DRT4ALL 2011 Conference IV Congreso Internacional de Diseño, Redes de Investigación y Tecnología para Todos, Madrid, Spain. 2011.         [ Links ]
[9] Quintiàn P., H., Calvo R., J. L., and Fontenla R., O. Aplicación de un robot comercial de bajo coste en tarea de seguimiento de objetos. Dyna, 79(175), pp.24-33, 2012.         [ Links ]
[10] Russell, L. Travel path sounder. Proceedings. Rotterdam Mobility Research Conference. N.Y: American Foundation for the Blind. 1965.         [ Links ]
[11] Mann, R.W. Mobility aids for the blind-An argument for a computer-based, man-device-environment, interactive, simulation system. Proceedings of Conference on Evaluation of Mobility Aids for the Blind, Washington, DC: Com. on Interplay of Eng. with Biology and Medicine, National Academy of Engineering. 101-116. 1970.         [ Links ]
[12] Morrissette, D.C., Goddrich, G.L., and Henesey, J.J., A follow-up-study of the Mowat sensor's applications, frequency of use, and maintenance reliability. J. Vis. Impairment Blidness. Vol. 75-6, 244-247, 1981.         [ Links ]
[13] Loomis, J.M., Golledge, R.G., and Klatzky, R.L., GPS-based navigation systems for the blind. In W. Barfield & T. Caudell Edss. Fundamentals of wearable computers and augmented reality. Mahwah. NJ: Erlbaum. pp. 429-446, 2011.         [ Links ]
[14] Kuc, R., Binaural sonar electronic travel aid provides vibrotactile cues for landmark, reflector motion and surface texture classification. IEEE Transactions on Biomedical Engineering. Vol. 49-10, pp. 1173-1180, 2002.         [ Links ]
[15] Farmer, L. and Smith, D., Adaptive Technology. Book chapter, Foundations on Orientation and Mobility. Eds. 2. pp. 231-260, 1997.         [ Links ]
[16] Farmer, L.W., Mobility devices. Bulletin of Prosthetic Research. 47-118, 1978.         [ Links ]
[17] ANDO, B., Electronic sensory systems for the visually impaired. Instrumentation and Measurement Magazine, IEEE, Vol 6, (2), pp. 62-67, 2003.         [ Links ]
[18] Petrie, H., Johnson, V., Strothotte, T., Raab, A., Michel, R., Reichert, L., Schalt, A., MoBIC: An aid to increase the independent mobility of blind travellers. British Journal of Visual Impairment. Vol. 15-2, pp. 63-66, 1997.         [ Links ]
[19] Loomis, J., Re: Digital Map and Navigatio System for the Visually Impaired. Comunicación personal, 1985.         [ Links ]
[20] Loomis, J.M., Golledge, R.G., and Klatzky, R.L., GPS-based navigation systems for the blind. In W. Barfield & T. Caudell Edss. Fundamentals of wearable computers and augmented reality. Mahwah. NJ: Erlbaum. pp. 429-446, 2001.         [ Links ]
[21] Douglas, G., Tobin, M., Bozic, N., Hill, and E, MOBIC: a system for facilitating independent mobility and navigation for blind people. Proceedings of ICEVI's Xth World Conference, Sao Paolo. Brazil. 3-8 August. 1997.         [ Links ]
[22] Strothotte, T., Petrie, H., Johnson, V., and Reichert, L., MoBIC: user needs and preliminary design for a mobility aid for blind and elderly travellers. British Journal of Visual Impairment. Vol. 15-2, pp. 63-66,1997.         [ Links ]
[23] Loomis, J.M., Golledge, R.G., and Klatzky, R.L., Navigation Systems for the blind:Auditory display modes and guidance. J. Presence. Vol 7, No.2, pp. 193-203, 1998.         [ Links ]
[24] Loomis, J.M., Golledge, R.G., Klatzky, R.L., and Marston, J.R., Assisting wayfinding in visually impaired travellers. In G. Allen (Ed.). Applied spatial cognition: From research to cognitive technology. 179-202. Mahwah, N. J.: Lawrence Erlbaum Associates, 2007.         [ Links ]
[25] Sainarayanan, G., Nagarajan, R., and Yaacob, S., Fuzzy image processing scheme for autonomous navigation of human blind. Appl. Soft Comput. Journal. Jan. Vol. 7-1 pp. 257-264, 2007.         [ Links ]
[26] Wilson, J., Walker, B.N., Lindsay, J., Cambias, C., and Dellaert, F., SWAN: System for wearable audio navigation. 11th IEEE International Symposium on Wearable Computers (ISWC'07) Boston. MA. pp. 91-98, 2007.         [ Links ]
[27] Benham, T.A., Guidance Device for the Blind. Phys. Today. Vol. 7-12, pp. 11-14, 1954.         [ Links ]
[28] BENJAMIN, J.M. A review of the veterans administration blind guidance project. Bull. Of Prosth. Res. 63-90,1968.         [ Links ]
[29] Dupress, J.K., The requirements for successful travel by the blind. In L. L. Clark Eds. Vol. 1. pp. 7-11,1963.         [ Links ]
[30] Farmer, L.W., Travel in adverse weather using electronic mobility guidance devices. The new outlook for the blind. Vol. 69-10. pp. 433-439, 1975.         [ Links ]
[31] Elkhalili, O., Schrey, O.M., Mengel, P., Petermann, M., and Brockherde, W., A 4×4pixel CMOS image sensor for 3-D measurement applications. in IEEE Journal of solid state circuits. Vol. 39-7. pp. 1208-1212, July. 2004.         [ Links ]