SciELO - Scientific Electronic Library Online

 
 issue23GEOSPATIAL COVERAGE OF PRIMARY ACTIVITY NODES: CONTRIBUTION TO URBAN SUSTAINABILITY ANALYSIS BY USE OF A REGIONAL ACCESSIBILITY STUDYPORCELAIN STONEWARE TILE MANUFACTURING USING RICE STRAW ASH AS QUARTZ REPLACEMENT author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Revista EIA

Print version ISSN 1794-1237

Rev.EIA.Esc.Ing.Antioq  no.23 Envigado June 2015

 

INTERFAZ HÁPTICA TIPO GUANTE CON REALIMENTACIÓN VIBRATORIA

HAPTIC GLOVE WITH VIBRATORY FEEDBACK

INTERFASE HAPTICA TIPO LUVA COM REALIMENTAÇÃO DE VIBRAÇÃO

 

Mónica Rocío Díaz Tribaldos1, José Manuel Escobar ocampo2, Óscar Andrés Vivas Albán3

1 Ingeniera en Automática Industrial, Universidad del Cauca, Colombia.
2 Ingeniero en Automática Industrial, Universidad del Cauca, Colombia.
3 Ingeniero electrónico y de telecomunicaciones Universidad del Cauca. MCs Dea Automatique Université de Nantes (Francia). PhD. Syam Universite De Montpellier Ii (Francia). Profesor Facultad de Electrónica, Universidad del Cauca, Colombia. Cra. 10N No. 18N-16. Popayán, Colombia. Teléfono: (2) 8363965. Correo electrónico: avivas@unicauca.edu.co.

Artículo recibido: 27-III-2014 / Aprobado: 17-XII-2014
Disponible online: 30 de junio de 2015
Discusión abierta hasta junio de 2016


RESUMEN

El presente artículo muestra el diseño y construcción de un guante háptico con realimentación vibratoria. El guante construido, llamado Virtual Touch, involucra sensores de flexión con el fin de captar en todo momento el movimiento realizado por la mano, así como pequeños motores de vibración que indican al usuario el contacto con un objeto virtual. Se implementaron dos tipos de software para manejar el dispositivo, primero que todo una aplicación en el ambiente ROS (Robotic Operation System) basado en Linux®, y como segunda instancia una aplicación en Windows® utilizando como motor de renderizado gráfico a VTK (The Visualization ToolKit, open source). Las dos aplicaciones muestran el guante virtual que sigue fielmente los movimientos de la mano real, además de que indican claramente el contacto con un objeto virtual. Además, en el caso de la aplicación realizada con VTK, se puede observar la deformación realizada sobre el objeto. Las aplicaciones futuras de este dispositivo son múltiples, entre ellas el diagnóstico médico.

PALABRAS CLAVE: Interfaces hápticas; guante háptico; realimentación vibratoria; diagnóstico virtual.


ABSTRACT

This article shows the design and construction of a glove haptic with vibration feedback. The glove, called Virtual Touch, involves flex sensors in order to capture the movement carried out by hand, as well as small vibrating motors that indicate to the user the contact with a virtual object. Two types of software were deployed to operate the device, first the ROS environment based on Linux®, and as second-instance a Windows® application using VTK (The Visualization ToolKit, open source) as rendering engine. The two applications show the virtual glove that faithfully follows the movements of real hand, in addition to clearly indicate the contact with a virtual object. In addition, in the case of the application made with VTK, deformation on the object can be seen. Future applications of this device are multiple, including the medical diagnosis.

KEY WORDS: Haptic Interface; Haptic Glove; Vibratory Feedback; Virtual Diagnosis.


RESUMO

Este artigo apresenta a concepção e construção de uma luva háptica com retroalimentação de vibração. A luva construída e chamada Virtual Touch, envolve sensores de flexão para capturar o movimento em todos os momentos com a mão, e motores de vibração pequenos que indicam o contato do usuário com um objeto virtual. Foram implementados dois tipos de software para gerenciar o dispositivo, antes de tudo um aplicativo no ambiente ROS baseado em Linux, e como uma segunda instância um aplicativo no Windows® usando como motor de renderização de gráficos para VTK. As duas aplicações são a luva virtual que segue fielmente os movimentos da mão real, para indicar claramente contacto com um objeto virtual. Além disso, se o pedido feito com VTK pode ser visto a deformação realizada sobre o objeto. As aplicações futuras deste dispositivo são múltiplas, incluindo o diagnóstico médico.

PALAVRAS-CHAVE: Interfaces hapticas; Luvas háptico; Realimentação de vibração; Diagnóstico virtual.


1. INTRODUCCIÓN

En los últimos años se ha visto una gran evolución tecnológica en los dispositivos llamados hápticos, los cuales son diversos mecanismos que permiten una realimentación de fuerza al usuario desde un mundo virtual. Estos mecanismos permiten tocar, sentir, manipular o cambiar objetos presentes dentro de un ambiente virtual representado en el computador, añadiendo el sentido del tacto a la experiencia visual. Es decir, el usuario no solamente envía datos al computador, sino que recibe información proveniente de él, a través de una sensación física en alguna parte de su cuerpo. Esta señal de realimentación desde el ambiente virtual se puede dar, por ejemplo, en la mano del usuario, por medio de un guante; en su brazo, o en todas sus extremidades, por medio de un exoesqueleto.

Actualmente, existen diversos dispositivos comerciales, muchos de ellos dedicados a los video juegos, pero también existen dispositivos más avanzados utilizados en diversos campos de investigación como los populares Phantom de Sensable® (Salisbury y Srinivasan, 1997), Butterfly Haptics® (Hollis, 2010) o HapticMaster® (Van der Linde, et al., 2002), entre otros.

En este campo se distinguen tres grandes ramas de desarrollo de los dispositivos hápticos: la robótica humanoide, específicamente con el proyecto Shadow Hand® (Reichel, 2004; Röthling, et al., 2007); las artes, con sus aportes en música y escultura (Lahtinen, et al., 2012); y, la medicina, campo bastante dinámico en cuanto a rehabilitación, oftalmología, simulación quirúrgica y telecirugía (Vander Poorten, et al., 2012).

Sobresale entre estos últimos el proyecto de columna háptica virtual desarrollado en la Universidad de Ohio, Estados Unidos, donde el sistema ayuda a los médicos a palpar virtualmente la columna del paciente con fines de diagnóstico (Karadogan, et al., 2010). O el E-Pelvis, donde por medio de un maniquí los médicos pueden entrenarse en el palpado de la zona pélvica y su correspondiente significación médica (Pugh and Youngblood, 2002). También existen desarrollos de complejos modelos de columna vertebral que interactúan con un sistema háptico (Kim-Tho-Huynh, et al., 2010), además de sistemas virtuales para la detección de tumores de mama (Murayama, et al., 2008; Egorov, et al., 2009). Igualmente, se han publicado trabajos sobre sistemas veterinarios para el palpado del recto de un bovino con el fin de aprender a determinar problemas de fertilidad (Baillie, et al., 2005), o el palpado del abdomen en felinos (Parkes, Forrest y Baillie, 2009). Un compendio actualizado de este tipo de dispositivos puede encontrarse en Tiwana, Redmond y Lovell, 2012.

De lo anterior, se desprende que una de las futuras aplicaciones de los dispositivos hápticos será el diagnóstico médico. Un sofisticado sistema de realimentación unido a eficientes algoritmos de procesamiento de señales permitirá al médico contar con elementos de juicio más completos al momento de diagnosticar un paciente. Por ejemplo al analizar una tomografía computarizada (TC), si el médico dispusiera de un adecuado guante háptico podría «tocar» y «sentir» las características físicas de los tejidos virtuales, y dichas características le proporcionarían información extra que apoyaría el diagnóstico obtenido a través de técnicas más tradicionales. Dicho de otra forma sería como si el médico pudiera tocar realmente los órganos internos del paciente sin tener necesidad de abrirlo, lo cual estaría sustentado en el desarrollo futuro de dos campos: primero en los algoritmos de procesamiento de imágenes, y segundo, en la posibilidad de disponer de un guante háptico tecnológicamente avanzado que provea las sensaciones necesarias para que los especializados corpúsculos de las yemas de nuestros dedos puedan sentir el tejido tocado como si realmente se estuviera interactuando con él.

Aunque actualmente no se dispone aún de un guante que pueda proveer sensaciones iguales a las de las yemas de los dedos, se ha avanzado mucho en este campo en los últimos años, destacándose los desarrollos de la línea de CyberGlove®, CyberTouch® y Cyber-Grasp® (Kessler, Hodges y Walker, 1995; Maciel, et al., 2004; Aiple and Schiele, 2013), así como el DataGlove® (Tran, et al., 2009). La Figura 1 muestra las imágenes de estas soluciones comerciales. La importancia presente y futura de este tipo de guantes hápticos se ve reflejada en la cantidad de aplicaciones en las que se pueden utilizar, que van desde el modelado industrial (González-Badillo, Medellín-Casatillo y Lim, 2013), pasando por el entrenamiento virtual (Abate, et al., 2009) y sus múltiples usos en juegos y simulaciones (Sánchez, 2012), hasta las especializadas aplicaciones en medicina (Ohnishi, Shimono y Natori, 2009).

Los guantes hápticos actuales pueden ser dispositivos que solamente muevan una mano virtual al moverse la mano real (tipo CyberGlove®), que aparte de moverla obtengan algún tipo de realimentación al hacer contacto con el mundo virtual (tipo CyberTouch®), o que además de recibir realimentación del contacto realizado, reciban una fuerza proporcional a la dureza del material tocado (tipo CyberGrasp®). Los tres tipos de funcionalidades nombradas entrañan igualmente una complejidad tecnológica creciente, siendo más sencillo claro está tener solo un sistema que «lea» la posición de la mano con el fin de mostrarla en pantalla, y más complejo el disponer de un sistema que no solo lea dicha posición sino que realimente en fuerza al usuario dependiendo del material virtual que se está tocando, realimentación que necesariamente involucra motores o poleas que restrinjan el movimiento de los dedos.

El presente artículo muestra el diseño y construcción de una primera versión de guante háptico, que no solo permite que una mano virtual muestre en pantalla el movimiento de la mano real, sino que le indica al usuario cuando se tiene contacto con el objeto virtual, a partir de una realimentación vibratoria que él recibe en sus dedos. Desde el punto de vista de la complejidad expuesta en el párrafo anterior, esta primera versión se ubicaría en un punto intermedio (dispone de realimentación al usuario al establecerse contacto con el objeto virtual, pero no realimentación de fuerza). Además el dispositivo diseñado permite igualmente la deformación del objeto virtual, proporcional al movimiento del guante real una vez establecido el contacto.

Esta artículo está dividido como sigue: La sección 2 muestra la construcción del guante háptico Virtual Touch, la sección 3 presenta el respectivo software de manejo del guante y sus resultados, mientras que en la sección 4 se exponen las conclusiones principales de este trabajo.

2. CONSTRUCCIÓN DE VIRTUAL TOUCH

Para la construcción del dispositivo de este proyecto, guante llamado Virtual Touch, se necesitaba como condición el disponer de un guante flexible para mano diestra, que dispusiera de sensores que midieran en tiempo real la posición de cada dedo, y de otra parte que proporcionara realimentación vibratoria al usuario. Por lo tanto el diseño del guante háptico involucró el guante como tal, los sensores de posición para cada dedo, el dispositivo que indica al usuario el contacto virtual, y el circuito de comunicación. Para el dispositivo se consiguió un guante flexible de motociclista como base para el sistema.

El diseño electrónico involucra principalmente los sensores de las posiciones de cada dedo. Para tal fin se tuvieron en cuenta sensores de efecto Hall y sensores tipo flex sensor, siendo estos últimos los elegidos dada la facilidad para su implementación, su costo reducido y la precisión que entregan. La Figura 2 muestra una imagen del flex sensor utilizado, donde la variación de la resistencia del sensor cambia dependiendo si las pastillas de metal están en el exterior o en el interior de la curva. A mayor sea la curva, mayor será el valor de la resistencia. El flex sensor tiene una resistencia nominal de 10 KΩ cuando está totalmente recto, siendo su rango de variación de 60 KΩ a 110 KΩ cuando se somete a una curvatura.

Una vez escogido el tipo de sensor de movimiento para los dedos del guante, se procedió a su respectiva caracterización. Se probó el comportamiento del flex sensor en el rango de utilización del guante, que es de 0° a 90°, debido a que ese es el rango aproximado del movimiento de los dedos humanos. Se realizó la medición en este rango en pasos de 5°, obteniéndose un comportamiento bastante lineal como lo muestra la siguiente figura, donde el eje y muestra el número de bits que corresponde a cada posición articular, como se muestra en la Figura 3.

A continuación se realizó la medición de los flex sensor, implementados ya en el guante, es decir se realiza la misma medición que en el caso anterior pero esta vez por cada dedo, obteniéndose los resultados mostrados en la Tabla 1.

Tabla 1

Finalmente con estos datos se determinaron las ecuaciones lineales para cada uno de los dedos, las cuales se muestran en la Tabla 2.

Donde Yi, Yc, Ya, Ym, y Yp, son los valores sensados por Arduino por cada uno de los cinco dedos, mientras que xi, xc, xa, xm, xp son los valores que serán entregados al software de la aplicación para el dedo índice, corazón, anular, meñique y pulgar respectivamente.

Para generar la realimentación al usuario, y teniendo en cuenta que el objetivo es detectar la presencia de un objeto virtual (y no incluir realimentación de fuerza), se utilizaron vibradores tipo moneda, los cuales se ubican en la yema de cada dedo y se activan con la detección de colisiones del sistema software. Este tipo de micro motores de vibración son motores de imán permanente, con un diámetro aproximado de 10 mm, un rango de frecuencia de 250 Hz a un voltaje de 3 V y a un consumo de corriente de 75 mA. Otra de sus ventajas es su precio, puesto que cuestan alrededor de cinco dólares cada uno. La Figura 4 muestra este tipo de vibrador.

Para la comunicación entre el hardware del guante y el computador se utilizó una tarjeta Arduino Mega 2560®, la cual lee los datos de las posiciones articulares de los dedos en el guante y a su vez envía la vibración a las yemas de los dedos cuando se presenta contacto virtual. La Figura 5 muestra la conexión del flex sensor a la tarjeta Arduino para efectos de las pruebas iniciales.

Finalmente se diseñaron una piezas en acrílico como receptáculos de cada falange distal, donde descansarán las yemas de los dedos y donde se incrustarán los vibradores tipo moneda. Estas piezas fueron construidas con una impresora 3D Systems Projet® HD 3000, perteneciente a la Universidad Miguel Hernández de España, una vez diseñadas en el software CAD Inventor®. La Figura 6 muestra las piezas para los dedos así como unas piezas adicionales que permiten ajustar los flex sensor al guante.

La versión final de Virtual Touch se muestra en la Figura 7. Aquí se observan los sensores de movimiento articular para cada dedo, la caja en acrílico que contiene la tarjeta Arduino y el hardware adicional, así como el cableado del sistema.

3. SOFTWARE PARA LA MANIPULACIÓN DEL GUANTE HÁPTICO

El objetivo principal del software para la manipulación del guante háptico fue contar con un programa que permitiera al usuario sentir en las yemas de los dedos cuando se tocaba un objeto virtual y a su vez poder deformar el objeto tocado. Inicialmente se exploró el software open source ROS (Robotic Operation System) dada la facilidad de implementación y a que entre sus librerías ya se contaba con el diseño de una mano robótica, la cual podría servir para mostrar el funcionamiento del guante. Desafortunadamente al finalizar este proyecto aún los desarrolladores del software no habían colocado a disposición de la comunidad mundial de usuarios las librerías para realizar la deformación de objetos. Por tal motivo, se hizo la misma aplicación pero utilizando los software open source VTK y QT sobre Visual Studio®, con librerías de deformación, obteniéndose resultados satisfactorios en el desempeño del guante. A continuación se mostrarán los dos programas realizados, resaltando las ventajas de cada uno de ellos.

3.1 Manipulación del guante con ROS (Robotic Operation System)

ROS es una infraestructura digital para el desarrollo de software para robots que provee la funcionalidad de un sistema operativo (Quigley, et al., 2009), desarrollado originalmente en 2007, fue llamado Switchyard por el Laboratorio de Inteligencia Artificial de Stanford, Estados Unidos. Desde 2008 el desarrollo continúa primordialmente en Willow Garage, una incubadora de empresas y laboratorio de investigación en robótica dedicado a la creación de software de código abierto para robots personales, que cuenta con la participación de más de 20 instituciones a nivel mundial.

ROS provee los servicios estándar de un sistema operativo, de este modo permite el control de dispositivos de bajo nivel, la abstracción de hardware, paso de mensajes entre procesos, implementación de funcionalidad común y el mantenimiento de paquetes. Está basado en una arquitectura donde el procesamiento toma lugar en los nodos, los cuales pueden recibir, enviar y multiplexar mensajes de sensores, control, estados, planificadores y actuadores, entre otros. ROS está orientado para un sistema operativo Unix®, donde Ubuntu (open source) basado en Linux, es el sistema soportado por Willow Garage, aunque se está adaptando a otros sistemas operativos como Fedora (open source), Mac OS X®, Debian (open source), y Microsoft Windows®, los cuales en estos momentos son considerados como experimentales.

Una versión de ROS puede ser incompatible con otra, de igual forma ciertas versiones de ROS son compatibles únicamente con ciertas versiones de Ubuntu. Las diferentes versiones normalmente están referidas por un sobrenombre en vez de por una versión numérica. Las versiones, desde la más actual a la primera versión, son:

  • 31/Diciembre/2012 - Groovy Galapagos
  • 23/Abril/2012 - Fuerte
  • 30/Agosto/2011 - Electric Emys
  • 02/Marzo/2011 - Diamondback
  • 03/Agosto/2010 - C Turtle
  • 01/Marzo/2010 - Box Turtle
  • 22/Enero/2010 - ROS 1.0

En este proyecto se trabajó con la versión 11.10 de Ubuntu (open source), la cual es compatible con ROS en sus versiones Electric Emys, Fuerte y Groovy Galapagos, de las cuales se trabajó sobre la versión de ROS Electric Emys (accesible desde http://ros.org/wiki/electric). Lógicamente antes de instalar ROS se debe tener instalado Ubuntu de manera previa.

Aparte de esto se utilizaron diversos paquetes que vienen disponibles para ROS, cuyas funcionalidades permitieron implementar el software para la manipulación del guante. Estos paquetes fueron:

Gazebo (open source): simulador multi-robot para entornos de software libre, es capaz de simular una población de robots, sensores y objetos en un mundo tridimensional, simula una gran cantidad de características físicas, gravedad, colisiones, realimentación de sensores, entre otras. Gazebo está incluido en ROS como un paquete que se puede instalar dentro de las dependencias de ROS.

Rosserial: paquete que permite la integración con Arduino, con diversos microcontroladores o con cualquier tipo de dispositivo hardware con conexión serial. Es un protocolo ROS. En este proyecto se utilizaron rosserial_arduino (librería cliente) y rosserial_python (interfaz PC/Tablet).

URDF: paquete para el modelado de robots que viene incluido en la instalación de ROS. Permite modelar muchos tipos de robots, especificando su geometría y sus características físicas. Contiene numerosas especificaciones para la descripción del robot y sus sensores, como las descripciones cinemáticas, la representación visual del robot y el modelo de colisiones de él con el entorno.

Shadow Hand®: Es una mano robótica construida por la empresa británica del mismo nombre, mano construida por músculos flexibles lo cual le permite un funcionamiento bastante real a la mano humana. ROS incluye el modelo de esta mano entre sus librerías para que el usuario pueda realizar aplicaciones propias con ella.

Para este proyecto se tienen en cuenta solamente las articulaciones que hacen parte de la mano ya que son las articulaciones que finalmente se moverán con el guante. Shadow Hand® está compuesta por 16 articulaciones, distribuidas de la siguiente manera (Figura 8):

Donde cada dedo está dividido de la siguiente manera:

  • Dedo índice: Está compuesto por tres articulaciones principales, falange proximal (FFJ3), falange media (FFJ2) y falange distal (FFJ1).
  • Dedo corazón: Está compuesto por tres articulaciones, falange proximal (MFJ3), falange media (MFJ2) y falange distal (MFJ1).
  • Dedo anular: Está compuesto por tres articulaciones principales, falange proximal (RFJ3), falange media (RFJ2) y falange distal (RFJ1).
  • Dedo meñique: Está compuesto por cuatro articulaciones principales, falange proximal (LFJ3), falange media (LFJ2), falange distal (LFJ1) y una cuarta articulación ubicada en el extremo de la palma de la mano la cual le da cierta elasticidad y facilidad al movimiento de la mano (LFJ5).
  • Dedo pulgar: Está compuesto por tres articulaciones principales, la base (THJ4), falange media (THJ2) y falange distal (THJ1).

Además de las falanges anteriormente mencionadas, los dedos índice, corazón, anular y meñique cuentan con un movimiento horizontal extra ubicado en las articulaciones FFJ4, MFJ4, RFJ4 y LFJ4 respectivamente, que permite a los dedos la libertad de hacer una flexión lateral de la falange proximal. Por su parte el dedo pulgar posee algunos movimientos extra de rotación en su propio eje asignados en las articulaciones THJ5 y THJ3. Cabe anotar que la Shadow Hand® posee dos movimientos en la muñeca de la mano designados en las articulaciones WRJ1 y WRJ2 los cuales no serán utilizados en este caso.

Gazebo posee un sistema de simulación de fuerzas naturales para el entorno de desarrollo 3D. Fuerzas como la gravedad, los rozamientos, y las fuerzas externas son simuladas en dicho entorno. Gazebo tiene la opción de crear sensores táctiles en los modelos 3D que se desarrollan en su interior, dichos sensores entregan información como coordenadas de contacto, fuerza de choque, torque y tiempos de duración del mismo. Gracias a estas herramientas se facilitó de forma amplia el desarrollo de la aplicación, acortando de este modo la escritura de los algoritmos de colisiones. Finalmente la aplicación realizada en ROS para la manipulación del guante háptico se muestra en la Figura 9 y un detalle del funcionamiento conjunto guante-software en la Figura 10.

3.2 Manipulación del guante con QT/VTK

Al iniciarse este proyecto uno de los objetivos planteados fue que se pudiera no solamente tocar un objeto virtual con el guante háptico, sino causarle una deformación a dicho objeto. Esto se hizo posible gracias al uso de las herramientas QT y VTK (Visuali zation Toolkit).

QT es una biblioteca multiplataforma utilizada principalmente para el desarrollo de aplicaciones con una interfaz gráfica de usuario utilizando C++ de forma nativa. QT Creator (open source) es el entorno de desarrollo, donde se pueden editar visualmente las interfaces diseñadas. QT incluye las herramientas necesarias para el diseño de aplicaciones de una forma rápida y sencilla, la biblioteca incluye un conjunto de widgets encargados de proporcionar las funciones estándar de una interfaz o GUI.

Por su parte VTK (Visualization Toolkit) es un conjunto de librerías desarrollado por Kitware, las cuales permiten la visualización de geometrías 3D, soportando una amplia variedad de algoritmos de visualización y modelado. Las funciones que integran VTK se basan en los principios de orientación a objetos, conformando un complejo sistema jerárquico de filtros y fuentes que dotan de gran flexibilidad a todo el sistema.

Otra de las librerías que se utilizaron con esta opción fue V-Collide, desarrollada por el grupo GAMMA (Geometric Algorithm for Modeling, Motion and Animation) de la Universidad de Carolina del Norte, Estados Unidos. Estas librerías realizan una eficiente y exacta detección de colisiones entre modelos poligonales, diseñada para operar en ambientes que contienen un gran número de objetos geométricos formados con mallas de triángulos.

La mano y la esfera de prueba de la aplicación se realizaron con Blender para después ser exportadas al ambiente VTK. La Figura 11 muestra la pantalla de la aplicación cuando la mano virtual está tocando la esfera y produciéndole una deformación, mientras que en la Figura 12 se observa la interacción del guante con el objeto virtual.

4. CONCLUSIONES

Este artículo presentó un primer prototipo de guante háptico con realimentación vibratoria. El guante utiliza sensores de flexión los cuales proporcionan información sobre el movimiento de cada articulación, y a su vez indica al usuario cuando se toca un objeto virtual, por medio de una vibración en la yema de los dedos. Se utilizó una tarjeta Arduino con el fin de conectar el hardware del guante al computador. El guante se probó con dos tipos de software. Primero con el software ROS, utilizando para la representación de la mano los archivos de la Shadow Hand® que vienen incluidas en el software, lo cual simplificó el trabajo de control y visualización de la mano. Aunque ROS dispone de librerías de detección de colisiones, no dispone de algoritmos de deformación, por lo que se implementó un segundo programa utilizando las librerías de VTK para el renderizado gráfico sobre Visual Studio® y las librerías VCollide para la detección de colisiones. El programa realizado permite en este caso tocar el objeto virtual y realizar una deformación sobre él.

Los dos programas permitieron probar el guante háptico, comprobándose una correcta respuesta visual de la mano virtual al moverse la mano real, y sintiéndose en la yema de los dedos la vibración correspondiente cuando ocurría el contacto entre los dedos y el objeto virtual. Sin embargo falta todavía un mayor avance tecnológico en cuanto a los dispositivos que permitan una realimentación adecuada a la yema de los dedos, con el fin de sentir con mayor realismo el material virtual tocado. Es por esto que en futuros trabajos se realizarán experimentos con otro tipo de dispositivos de realimentación, vibratorios o no, para mejorar la sensación que recibe el usuario, además del grado de realimentación de fuerza que recibiría el usuario.

AGRADECIMIENTOS

Los autores de este trabajo agradecen el soporte económico y tecnológico prestado por el Dr. José María Sabater de la Universidad Miguel Hernández de Elche, España, donde se llevó a cabo parte de esta investigación.

REFERENCIAS

Abate, A.F.; Guida, M.; Leoncini, P.; Nappi, M.; Ricciardi, S. (2009). A Haptic-Based Approach to Virtual Training for Aerospace Industry. Journal of Visual Languages and Computing, 20 (5), october, pp. 318-325.         [ Links ]

Aiple, M.; Schiele, A. (2013). Pushing the Limits of the CyberGraspTM for Haptic Rendering. (ICRA), 2013 IEEE International Conference on Robotics and Automation (May), Karlsruhe, Germany, pp. 3541-3546.         [ Links ]

Baillie, S.; Crossan, A.; Brewster, S.; Mellor, D.; Reid, S.W.J. (2005). Validation of a Bovine Rectal Palpation Simulator for Training Veterinary Students. Studies in Health Technology and Informatics, 111, pp. 33-36.         [ Links ]

Egorov, V.; Kearney, T.; Pollak, S.B.; Rohatgi, C.; Sarvazyan, N.; Airapetian, S.; Browning, S.; Sarvazyan, A. (2009). Differentiation of Benign and Malignant Breast Lesions by Mechanical Imaging. Breast Cancer Research and Treatment, 118 (1), November, pp. 67-80.         [ Links ]

González-Badillo, G.; Medellín-Casatillo, H.; Lim, T. (2013). Development of a Haptic Virtual Reality System for Assembly Planning and Evaluation. Procedia Technology, 7 (3), pp. 265-272.         [ Links ]

Hollis, R. (2010). Butterfly Haptics: A High-Tech Start-Up. IEEE Robotics and Automation Magazine, 17 (4), December), pp. 14-17.         [ Links ]

Karadogan, E.; Williams, R.L.; Howell, J.N.; Conatser JR., R.R. (2010). A Stiffness Discrimination Experiment including Analysis of Palpation Forces and Velocities. The Journal of the Society for Simulation in Healthcare, 5 (5), october, pp. 279-288.         [ Links ]

Kessler, G.D.; Hodges, L.F.; Walker, N. (1995). Evaluation of the CyberGlove as a Whole-Hand Input Device. Journal ACM Transactions on Computer-Human Interaction, 2 (4), December, pp. 263-283.         [ Links ]

Kim-Tho-Huynh; Zhan-Gao, Ian-Gibson, Wen-Feng-Lu (2010). Haptically Integrated Simulation of a Finite Element Model of Thoracolumbar Spine Combining Offline Biomechanical Response Analysis of Intervertebral Discs. Computer-Aided Design, 42 (12), December, pp. 1151-1166.         [ Links ]

Lahtinen, R.; Palmer, R.; Ojala, S. (2012). Visual Art Experiences Through Touch Using Haptices. Procedia-Social and Behavioral Sciences, 45, pp. 268-276.         [ Links ]

Maciel, A.; Sarni, S.; Buchwalder, O.; Boulic, R.; Thalmann, D. (2004). Multi-Finger Haptic Rendering of Deformable Objects. Proceedings of the Tenth Eurographics conference on Virtual Environments (Junio), Grenoble, France, pp. 105-112.         [ Links ]

Murayama, Y.; Haruta, M.; Hatakeyama, Y.; Shiina, T.; Sakuma, H.; Takenoshita, S.; Omata, S.; Constantinou, C. (2008). Development of a New Instrument for Examination of Stiffness in the Breast Using Haptic Sensor Technology. Sensors and Actuators A: Physical, 143 (2), May, pp. 430-438.         [ Links ]

Ohnishi, K.; Shimono, T.; Natori, K. (2009). Haptics for Medical Applications. Artificial Life and Robotics, 13 (2), March, pp. 383-389.         [ Links ]

Parkes, R.; Forrest, N.; Baillie, S. (2009). A Mixed Reality Simulator for Feline Abdominal palpation training in veterinary medicine. Studies in Health Technology and Informatics, 142, pp. 244-246.         [ Links ]

Pugh, C.; Youngblood, P .(2002). Development and Validation of Assessment Measures for a Newly Developed Physical Examination Simulator. Journal of the American Medical Informatics Association, 9 (5), September, pp. 448-460.         [ Links ]

Quigley, M.; Conley, K.; Gerkey, B.; Faust, J.; Foote, T.; Leibs, J.; Wheeler, R.; Ng, A. (2009). ROS: An Open-Source Robot Operating System. ICRA Workshop on Open Source Software (May), Kobe, Japan.         [ Links ]

Reichel, M. (2004). Transformation of Shadow Dextrous Hand and Shadow Finger Test Unit from Prototype to Product for Intelligent Manipulation and Grasping. International Conference on Intelligent Manipulation and Grasping (July), Genova, Italy.         [ Links ]

Röthling, F.; Haschke, R.; Steil, J.; Ritter, H. (2007). Platform Portable Anthropomorphic Grasping with the Bielefeld 20-DOF Shadow and 9-DOF TUM Hand. Proceedings of the 2007 IEEE/RSJ International Conference on Intelligent Robots and Systems (october), San Diego, USA.         [ Links ]

Salisbury J.; Srinivasan M. (1997). PHANToM-Based Haptic Interaction with Virtual Graphics. IEEE Computer Graphics Applications, 17 (5), September, pp. 6-10.         [ Links ]

Sánchez, J. (2012). Development of Navigation Skills Through Audio Haptic Videogaming in Learners Who are Blind. Procedia Computer Science, 14, pp. 102-110.         [ Links ]

Tiwana, M.; Redmond, S.; Lovell, N. (2002). A Review of Tactile Sensing Technologies with Applications in Biomedical Engineering. Sensors and Actuators A: Physical, 179, June, pp. 17-31.         [ Links ]

Tran, N.; Phan, H.; Dinh, V.; Ellen, J.; Berg, B.; Lum, J.; Alcántara, E.; Bruch, M.; Ceruti; Marion; K., Charles; García, D.; Fugate, S.; Duffy, L. (2009). Wireless Data Glove for Gesture-Based Robotic Control. Human-Computer Interaction, Part II, 5611, pp. 271-280.         [ Links ]

Van der Linde, R.; Lammertse, P.; Frederiksen, E.; Ruiter, B (2002). The Hapticmaster, a New Highperformance Haptic Interface. Proceedings of Eurohaptics'02 (July), Edingburgh, United Kingdom.         [ Links ]

Vander Poorten, E.; Demeester, E.; Lammertse, P. (2012). Haptic Feedback for Medical Applications, a Survey. Proceedings Autuator 2012, June, Bremen, Germany.         [ Links ]