SciELO - Scientific Electronic Library Online

 
vol.5 número9EVALUATION OF TECHNIQUES FOR RELEVANCE ANALYSIS OF RADIOLOGICAL IMAGES USING FILTERSANALYSIS AND CLASSIFICATION OF THE BREATHING PATTERN IN PATIENTS ON WEANING TRIAL PROCESS índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


Revista Ingeniería Biomédica

versão impressa ISSN 1909-9762

Rev. ing. biomed. vol.5 no.9 Medellín jan./jun. 2011

 

INTERFAZ HÁPTICA DE CUATRO GRADOS DE LIBERTAD PARA APLICACIONES QUIRÚRGICAS

HAPTIC INTERFACE WITH FOUR DEGREES OF FREEDOM FOR SURGICAL APPLICATIONS

 

Jimmer William Genoy Muñoz1, Luis Felipe Rodríguez Ortiz1 y Sergio Alexander Salinas1,2

1 Facultad de Ingeniería en Electrónica y Telecomunicaciones, Universidad del Cauca, Popayán, Colombia.
2 Dirección de correspondencia: sergiosalinas@unicauca.edu.co.

Recibido 24 de diciembre de 2010. Aceptado 29 de Junio de 2011


 

RESUMEN

El presente artículo muestra el diseño de un dispositivo háptico concebido para aplicaciones biomédicas, específicamente para medicina quirúrgica en la que el operador, a través del sentido del tacto, sienta y manipule objetos simulados en un ambiente tridimensional y tele-operado. La interfaz háptica que se presenta corresponde a un robot tipo serie, con una arquitectura de cuatro grados de libertad que le permite al usuario posicionar y orientar el efector final en el entorno de trabajo. Para el estudio de los movimientos del robot se parte del modelado geométrico y dinámico del mismo, hasta la implementación de un controlador por par calculado. Finalmente, se realiza la simulación de la interfaz háptica en un ambiente virtual.

PALABRAS CLAVE: Interfaz háptica, simulación tridimensional, robótica, modelado de robots, control por par calculado.


 

ABSTRACT

This paper presents the design of haptic device that is conceived for biomedical applications. Specifically, the device can be used for surgery training allowing the user to feel and handle simulated objects a tridimensional and tele-operated environment. The haptic interface is a serial robot with four degrees of freedom that allows to set the orientation and position of the end-effector into the work environment. Kinematic and dynamic models are used to study the robot movements and to build a calculated torque controller. Finally, a simulation of the haptic interface is done in a virtual environment.

KEY WORDS: Haptic interface, tridimensional simulation, robotics, robot model, calculated torque control.


 

I. INTRODUCCIÓN

El término de dispositivo háptico y en sí la palabra háptica son realmente modernos. Proviene del griego hápt (tocar, relativo al tacto) y se refiere a la ciencia que estudia todo lo relativo al tacto y sus sensaciones como medio de control e interacción con máquinas y computadores.

Hacia el año 2000 muchas personas aún relacionaban la háptica con alguna disfunción hepática o algún tipo de enfermedad. En el 2004, cualquier jugador de video juegos que se respetara poseía un joystick adaptado a su consola, con el cual podía interactuar dentro del entorno que el video juego le proveía. Hasta el vibrar de los celulares se constituía ya en dispositivos hápticos que poco a poco lograban filtrarse en nuestras vidas. El posterior desarrollo de algoritmos de visión de máquina, en los cuales se le ha brindado la capacidad a los robots y demás máquinas de percibir el medio ambiente que les rodea, junto con el desarrollo de tecnologías cada vez más avanzadas, han catapultado la implementación de dispositivos hápticos en labores y actividades más especializadas que requieren de gran precisión y continuo seguimiento monitorizado para la obtención de buenos resultados como lo mencionan MacLean y Hayward en [1].

El campo de la medicina no se ha quedado atrás y se ha constituido en una de las fuentes principales de aplicaciones hápticas, especialmente el área de la telecirugía y su simulación por computador. Esto se debe al creciente desarrollo de aplicaciones para planes preoperatorios, cirugías mini-invasivas y el entrenamiento seguro de los futuros cirujanos (Fig. 1).

La tele-cirugía permite a los cirujanos realizar intervenciones quirúrgicas remotas mediante el uso de robots o interfaces hápticas, que resultan útiles al intentar minimizar los daños ocasionados por el uso de procedimientos invasivos (laparoscopia/radiología de intervención), de manera que si el cirujano comete un error en la intervención, el dispositivo háptico puede generar una fuerza en contraposición (previamente programada) que evita daños al paciente [3].

Los dispositivos hápticos producen la sensación de estar tocando realmente un mundo virtual o remoto. Según [4], el objetivo ideal es que el operador no distinga entre lo real y lo virtual y según [5] esto permite que el cirujano tenga una experiencia más real, en la que se reproducen las fuerzas de contacto, se aumenta la sensación de presencia, se mejora la interacción y el manejo de los instrumentos médicos.

La tecnología háptica en la tele-operación permite tener toda realimentación que conlleve percepción cutánea y hacer mediciones de: velocidades, aceleraciones, vibraciones e inercias [6]. Esto es ideal en las investigaciones que conllevan sistemas de control con realimentación.

Entre los principales dispositivos hápticos para aplicaciones médicas se encuentran: PHANToM de arquitectura serie (Sensable Technologies) y MAGISTER-P de arquitectura paralela [5]. Y estudios representativos como los presentados en: [7] un desarrollo en el cual se realiza tele-operación con realimentación cinestésica pero a su vez incluye realimentación de fuerzas virtuales desde un simulador generando fuerzas de repulsión que eviten el contacto con objetos, y [8] asistencia de tele-operación con la generación de fuerzas virtuales que le ayudan al operador a mantenerse dentro de una trayectoria recta.

El diseño, simulación y control de un dispositivo háptico, llamado GIRU, se presenta en este artículo. Concebido inicialmente como una herramienta para los cirujanos buscando recuperar, en cierta forma, la percepción del tacto que se pierde en los procedimientos médicos tele-operados. La simulación se hace mediante el seguimiento de trayectorias programadas en un ambiente virtual de tres dimensiones, una vez se interactúa con los objetos del entorno, se realiza la realimentación de fuerzas correspondiente que simula la sensación de contacto del usuario con dicho mundo virtual.

Entre las aplicaciones biomédicas para las cuales sería útil el uso de esta interfaz se encuentran: un simulador virtual de entrenamiento para procedimientos quirúrgicos, interfaz para interactuar con sistemas tele-operados en entornos remotos, un sistema robótico de rehabilitación para personas con discapacidad en terapias de movimiento apoyado en un ambiente virtual, es decir, la terapia podría ser conducida por la interfaz siguiendo trayectorias de los movimientos requeridos, programadas previamente por un fisioterapeuta.

Este artículo se estructura de la siguiente manera: la sección II muestra los modelos geométricos y dinámicos del robot; en la sección III se desarrolla la implementación de un controlador basado en el modelo de la planta. La sección IV muestra los resultados obtenidos y finalmente las conclusiones se describen en la sección V.

 

II. MODELADO DE GIRU

El diseño del dispositivo háptico GIRU se basó en la anatomía del brazo humano, luego de haber estudiado diversos tipos de robots similares. A partir de su estructura serie, los primeros tres grados de libertad que forman el portador proveen la posición y el último grado de libertad proporciona la orientación del órgano terminal del robot.

La estructura cinemática que se diseñó para GIRU se muestra en la Fig. 2, las distancias fijas del robot se designan con las letras R2 = 0,1396m y R5 = 0,1963m (dadas en la Tabla 1 de parámetros geométricos).

En la Fig. 2, las articulaciones de rotación se representan con cilindros y la de translación se representa con un prisma; esta última articulación es pasiva y corresponde a la longitud del efector final, de la cual es necesario incluir en el modelado la distancia aportada a lo largo del eje. Cada articulación está respectivamente numerada.

2.1 Modelados geométricos

A partir del análisis de la estructura cinemática del robot se obtuvo la Tabla 1 de parámetros geométricos siguiendo la metodología descrita en [9].

Donde:
j: representa la articulación o cuerpo.
σj: indica si la articulación es de traslación fija (2) o de rotación (0).
αj, θj : son ángulos que dependen de los ejes de las articulaciones.
dj, rj : son distancias entre los ejes de las articulaciones.

Usando la tabla de parámetros geométricos se puede encontrar el Modelo Geométrico Directo (MGD) que permite calcular la posición (x, y, z) y la orientación del efector final del robot en el espacio cartesiano en función de las coordenadas articulares. Para hallar el MGD es necesario aplicar las matrices de transformación j-1Tj de la ecuación (1) a cada una de las articulaciones del robot a partir de los parámetros geométricos de la Tabla 1.

La matriz U0 = 0T1 1T2 2T3 3T4 4T5 es la matriz de transformación que representa el MGD y se presenta en la ecuación (2).

Ecuación 2

Donde,
Cj = cos (θj) y Sj = sin (θj) para j = 1, 2, 3, 4, 5.

Por otro lado, para alcanzar una posición y orientación deseadas del efector final, el Modelo Geométrico Inverso (MGI) proporciona todas las posibles soluciones de las posiciones articulares. Para hallar el MGI se usó el método de Paul [10], el cual trata de manera simple cada articulación por separado, obteniéndose las soluciones que se presentan en las ecuaciones 3.

Ecuación 3

Donde,
a = 2pxR2
b = -2pyR2
c = R5^2 - (px^2 + py^2 + pz^2 + R2^2)
px, py, pz, corresponden a las coordenadas cartesianas.

2.2. Modelados dinámicos

Los modelos dinámicos se usan para simular la dinámica y controlar el robot, corresponden a la relación entre las fuerzas aplicadas por los motores (Γ) con las posiciones (q), velocidades () y aceleraciones articulares () [9].

El Modelo Dinámico Inverso (MDI) según el método de Lagrange-Euler se expresa mediante la ecuación (4).

Donde,
Γ: pares aplicados a los motores.
A: matriz de inercias.
C: matriz de fuerzas de Coriolis y centrífugas.
Q: vector de fuerzas gravitacionales.

Siguiendo la metodología de Vivas [11] se analiza el Modelo Dinámico Directo (MDD) que expresa las aceleraciones en función de las posiciones, velocidades y fuerzas en las articulaciones, permitiendo realizar la simulación del comportamiento del dispositivo háptico, en la herramienta software Matlab/Simulink®. El MDD se expresa como en la ecuación (5):

Para el cálculo de los modelos dinámicos es necesario encontrar los parámetros base del robot, inercias, masas, entre otros. Estos parámetros se obtuvieron de la misma forma que se presenta en [12], a partir de las propiedades físicas de las articulaciones del robot, construidas en la herramienta de diseño asistido por computador (CAD) SolidEdge®. El resultado final del diseño se presenta en la Fig. 3.

De acuerdo al tipo de material, la estructura física y las dimensiones de cada articulación se obtienen los valores de las masas y momentos de inercia de las mismas. En el diseño, se tuvo en cuenta la simetría de los cuerpos para simplificar el número de parámetros base, y del cálculo de los momentos de fuerza generados por cada articulación se obtienen las características de los motores, tales como momentos, masas, inercias y dimensiones.

Los archivos de simulación de los modelos y las ecuaciones para los parámetros inerciales de base se obtuvieron a través del software SYMORO (SYmbolic MOdelling of RObots) desarrollado por Khalil y Creusot [13].

 

III. IMPLEMENTACIÓN DEL CONTROLADOR

Una vez obtenidos los modelos que describen la cinemática y dinámica del robot, se hace necesario realizar un control que le permita al dispositivo háptico tener un comportamiento particular o seguir una trayectoria deseada.

En este caso, se busca que el robot sea capaz de seguir una trayectoria establecida (previamente programada) o definida por el operador (consignas cartesianas del efector final del robot), dentro de un ambiente virtual. Dicho ambiente es simulado mediante un cubo que presenta restricciones de espacio (volumen), las cuales deben ser interpretadas por el robot y enviadas al operador a través de estímulos táctiles o realimentación de fuerzas. Ésta realimentación permite que el operador reconozca una colisión con las aristas del cubo.

Para garantizar el seguimiento de una trayectoria deseada se utilizó el control por par calculado (CTC) descrito en [9], que incluye el modelo de la planta (MDI) para linealizar y desacoplar la compleja dinámica del robot. El CTC es usado cuando se requiere una evolución más rápida del robot junto con un incremento de precisión en el resultado obtenido. El esquema general de este tipo de controlador se muestra en la Fig. 4.

Donde Kp es la matriz de ganancias proporcionales y Kv la matriz de ganancias derivativas, calculándose en el mismo instante el modelo dinámico inverso por medio del algoritmo de Newton-Euler descrito en [13].

En la Fig. 5 se presenta el esquema de control de la interfaz háptica y la implementación del controlador CTC. Las consignas cartesianas deseadas son obtenidas a partir de la posición en el espacio cartesiano del efector final del robot, y son importadas a Simulink de Matlab a través del bloque denominado "DESDE EL ESPACIO DE TRABAJO". Dado que la interfaz háptica no fue construida físicamente, las consignas (posiciones x, y, z) se obtuvieron mediante un joystick.

Figura 5

El CTC está constituido por un control PD y el MDI del robot. Le llegan las señales de posición articular, por medio del MGI; velocidades y aceleraciones articulares proporcionadas por el MDD. Los modelos dinámicos están incluidos en el bloque denominado "MODELOS ROBOT GIRU" de la Fig. 5.

Se realizó el ajuste de los valores de las ganancias proporcionales Kp y las ganancias derivativas Kv, mediante el método manual descrito en [14], hasta obtener una disminución considerable de error cartesiano. Los valores son Kpi = 100000 y Kvi = 100, para i = 1, 2,3, 4.

Una vez obtenidas las consignas cartesianas, el bloque "BASE DE REGLAS" las acota de acuerdo a unos criterios previamente definidos por el operador (Fig. 6). En este caso dichos criterios corresponden a las coordenadas de las aristas del cubo virtual, las cuales limitan las trayectorias deseadas de entrada.

Cuando las consignas de entrada chocan contra las aristas del cubo virtual, el bloque "BASE DE REGLAS", genera una bandera (1 lógico) que indica el cambio de control Manual a control Automático, es decir, el CTC corrige dicha trayectoria controlando la posición cartesiana del efector final del robot. De esta manera existe una realimentación de fuerzas y pares entre el operador de la interfaz y el entorno virtual. En la Fig. 7 se muestran trayectorias del robot dentro de un cubo específico.

En otras palabras, mientras el operador maniobra el dispositivo dentro del espacio permitido por el entorno virtual (cubo), no se ejerce ninguna acción de control y éste se puede mover libremente, de lo contrario la interfaz háptica corrige la trayectoria de entrada generando fuerzas correctivas, llevando una vez más al dispositivo a una zona límite en la que el operador se pueda mover libremente.

En la Fig. 7, se observa que los movimientos no son naturales por estar discretizados por el joystick, razón por la cual se evidencian valores discretos y no continuos en las Fig. 9, 10 y 11.

Para tener una mejor percepción de los movimientos de la interfaz y su adaptación al espacio de trabajo de un cirujano, se construyó un entorno virtual en el software Virtual Reality® de Matlab®; que se muestra en la Fig. 8. La interfaz es pensada como una herramienta más, que le permite al usuario realizar tareas de entrenamiento o teleoperación desde su escritorio personal.

 

IV. RESULTADOS

Con la consecución del presente trabajo se busca hacer un aporte inicial en el uso de un dispositivo háptico para el seguimiento de trayectorias y la sensación de contacto con objetos de un entorno virtual. A partir del diseño y simulación de la interfaz háptica para aplicaciones biomédicas GIRU, se pretende hacer una prueba de concepto que demuestre la factibilidad de construcción de un prototipo para la realización de tareas más complejas, tales como la sensación de contacto con objetos blandos (órganos) y elásticos en un ambiente virtual.

Para la comprobación de los logros obtenidos en el modelado del robot hasta la implementación del CTC, se ha dispuesto de un ambiente virtual simulado en el cual el operador navega e interactúa con los objetos del entorno (un cubo virtual en este caso) usando el efector final como cursor.

Cabe mencionar que las respuestas mostradas en las Fig. 9, 10 y 11 corresponden a valores discretos de trayectorias previamente definidas por el usuario, por tanto no se evidencian movimientos naturales y continuos.

En una primera prueba, suponiendo que se desea realizar una trayectoria como la mostrada en la Fig. 9 (desplazamiento en el plano XY), de la Fig. 10 puede observarse que el operador logró moverse libremente sin presentarse ninguna acción de control externa. Las cotas de las aristas del cubo fueron: 0,08m<x<0,24m, 0,1m<y<0,45m, -0,5m<z<0,5m, por lo tanto la trayectoria deseada permaneció dentro de las cotas establecidas.

En una segunda prueba se establecieron las siguientes restricciones para las aristas del cubo: 0,08m<x<0,15m, 0,1m<y<0,25m, -0,5m<z<0,5m. La Fig. 11 muestra la acción de control realizada para la corrección de la trayectoria cuando el operador colisiona con las aristas. Es decir, que aunque el usuario deseé seguir la trayectoria verde, no lo podrá hacer porque el controlador le realimenta la fuerza de colisión con el cubo (línea azul).

Finalmente en la Fig. 12 se visualiza el error cartesiano (Plano XY) obtenido del orden de 3,5x10-4m, cuando se realiza la corrección de trayectoria. Los valores máximos del error se generan cuando hay cambios bruscos en la trayectoria.

Estos resultados sugieren que la interfaz háptica más el controlador CTC, puede funcionar para detectar colisiones entre objetos en ambientes virtuales y dar una realimentación de fuerzas al operador que esté sosteniendo en sus manos la interfaz, con un nivel de realismo aceptable aunque con algunas vibraciones en el momento que ocurra el contacto en el simulador.

 

V. CONCLUSIONES

Con las pruebas realizadas se demuestra el buen desempeño del dispositivo háptico, y la posibilidad de aplicación en muchas operaciones quirúrgicas reales. Se presenta la interfaz háptica GIRU como una herramienta potencial para la realización de tele-operación, teniendo en cuenta que los errores cartesianos obtenidos se encuentran dentro de los rangos usados en este tipo de intervenciones.

Los modelos geométricos y dinámicos, tanto directos como inversos, se obtuvieron y aplicaron en el control, para que las respuestas de simulación del robot fuesen lo más cercanas a la realidad.

La implementación y sintonización del CTC como estrategia de control permitieron obtener un error en la restricción de la trayectoria menor a 4x10-4m, con lo que se demuestra la efectividad de este dispositivo háptico en aplicaciones médicas cuyo grado de precisión es bastante alto.

Se establecieron representaciones 3D del dispositivo usando la herramienta software SolidEdge con el fin de obtener valores muy precisos de los parámetros base incluidos en los modelos dinámicos. También se utilizó la herramienta software Virtual Reality de Matlab a fin de proporcionar un ambiente virtual agradable de simulación, para la interacción táctil con los objetos del entorno y la visualización de las acciones de control correspondientes sobre los movimientos del robot.

En trabajos futuros se realizará la construcción física e implementación de la interfaz háptica GIRU, basados en el diseño actual del dispositivo.

 

REFERENCIAS

[1]. MacLean K., Haywar d V. Do It Yourself Haptics: Part II Interaction Design. IEEE Robotics and Automation Magazine. 15 (1), 104-119, 2008.         [ Links ]

[2]. HAPTICA (2009). Consultado en diciembre de 2009 en: www.haptica.com.         [ Links ]

[3]. Martín C. Interfaces Hápticos, Aplicación en Entornos Virtuales. Memorias del XVI Congreso Internacional de Ingeniería Gráfica, España. 2004.         [ Links ]

[4]. Hayward V., Astley O., Cruz-Hernandez M., Grant D., Robles-De La-Torre G. Tutorial Haptic Interfaces and Devices. Sensor Review, 24, 16-29. 2004.         [ Links ]

[5]. Sabater J. Desarrollo de una Interfaz Kinestésica Paralela y Experimentación en Control de Sistemas Hápticos y Teleoperados. Trabajo de Grado, Universidad Manuel Hernández, Elche, España, 2003.         [ Links ]

[6]. Ayala A., García L., Reyna G. Desarrollo de un Sistema Robótico Háptico para Aplicaciones Biomédicas. Tesis de Grado, Instituto Politécnico Nacional, México, 2008.         [ Links ]

[7]. Turro N., Khatib O., Coste-Maniere E. Haptically Augmented Teleoperation. Proccedings of the IEEE International Conference on Robotics and Automation, Seul, Korea, 2001.         [ Links ]

[8]. Bogado J. Control Bilateral de Robots Tele-operados por Convergencia de Estados. Tesis de Grado, Universidad Politécnica de Madrid, España, 2007.         [ Links ]

[9]. Khalil W., Dombre E. Modeling, Identification and Control of Robots. London: Kogan Page Science, 2002.         [ Links ]

[10]. Paul R. Robot Manipulators: Mathematics, Programming and Control. Cambrigde: MIT Press. 1982.         [ Links ]

[11]. Vivas A. Diseño y control de robots industriales: teoría y práctica. Ediciones Elaleph.com. 2010.         [ Links ]

[12]. Salinas S., Vivas A. Simulación 3D de Movimientos Quirúrgicos de una Colecistectomía Asistida por el Robot 'LapBot'. Memorias del VIII Congreso de la Asociación Colombiana de Automática, Cartagena, Colombia, 2009.         [ Links ]

[13]. Khalil W., Creusot D. Symoro+: A System for the Symbolic Modelling of Robots. Robotica, 15, 153-161, 1997.         [ Links ]

[14]. Smith C. Fundamentals of Control Theory. Chemical Engineering, 86, 11-39, 1979.         [ Links ]