SciELO - Scientific Electronic Library Online

 
vol.1 issue2FABRICACIÓN DE MICROAGUJAS EN FOTORRESINA SU-8 MEDIANTE FOTOLITOGRAFÍA PARA APLICACIONES BIOMÉDICASJORNADAS DE INVESTIGACIÓN CES 2007 author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Revista Ingeniería Biomédica

Print version ISSN 1909-9762

Rev. ing. biomed. vol.1 no.2 Medellín July/Dec. 2007

 

DESCRIPCIÓN DEL MÉTODO LOG-VISION DE PROCESAMIENTO DE IMÁGENES EN COLOR EN APLICACIONES A IMÁGENES OFTÁLMICAS

 

Edison Valencia Díaz

Ingeniería Biomédica, EIA-CES, Línea de Bioinstrumentación, Señales e Imágenes Médicas. pfevalencia@eia.edu.co.

Recibido 3 de octubre de 2007. Aceptado de 3 de noviembre de 2007.


 

RESUMEN

Este artículo describe un algoritmo para realzar los bordes en una imagen digital en color basada en la extensión S-CIELAB. Esta extensión implica una serie de filtros espaciales de suavizado en el espacio de color acromático y los colores oponentes para aproximar las funciones de sensibilidad al contraste del sistema visual humano. Los filtros son combinaciones lineales de máscaras gaussianas. En el presente trabajo se combinaron estos filtros espaciales con el operador laplaciano en cada canal opuesto y el canal acromático para obtener la imagen realzada. La imagen que resulta es restada de la imagen original en cada canal por separado y se transforma de nuevo a la representación del color independiente del dispositivo (XYZ) para obtener de esta forma la imagen realzada. Este artículo describe dos ejemplos que usan el algoritmo de realce con imágenes médicas del área oftálmica.

PALABRAS CLAVE: Apariencia del color, Imagen médica, Mejora de imágenes, Óptica fisiológica, Procesamiento de imagen, Realce de imágenes en color, Sistema de visión humana, Visión del color.


 

ABSTRACT

This paper describes an algorithm to sharpen a colour digital image based on S-CIELAB extension. S-CIELAB involves a series of smoothing spatial filters in the opponent color space to approximate the contrast sensitivity functions of the human vision system. The filters are linear combinations of Gaussian masks. The algorithm combines these spatial filters with the Laplacian operator in each opponent channel to obtain the sharpened image. The resulting image is then subtracted from the original image in each opponent channel and back transformed to the device independent representation space (XYZ) to obtain the final sharpened image. This article describes two examples that use the sharpening algorithm with medical images of the ophthalmic area.

KEY WORDS: Color appearance, Medical image, Image enhancement, Physiological optics, Image processing, Color image sharpening, Human vision system, Color vision.


 

I. INTRODUCCIÓN

Cada día es más común encontrar sistemas de ayuda al diagnóstico médico basados en imágenes digitales, tanto en la exploración interna como externa del cuerpo humano. El diagnóstico basado en sistemas tradicionales como las radiografías y las ecografías son complementados con información basada en imágenes radiológicas y ópticamente visibles, por ejemplo, imágenes a través de fibroscopio registradas con cámaras de fotografía y video, en exámenes médicos de colonoscopia, gastroscopia, etc.

Tener una imagen que presente mejor las señales que describe la enfermedad por diagnosticar adquiere importancia. Es frecuente que los contornos de los objetos que componen una imagen digital aparezcan pobremente definidos como consecuencia de la función extensión del objetivo de la cámara, la resolución espacial del sensor, la resolución del medio de presentación o impresión, las condiciones de observación, la compresión digital, la introducción de patrones de impresión, etc. Numerosas aplicaciones requieren un realce de imagen que agudice o afile los contornos. De hecho, los filtros espaciales de suavizado y realce de bordes intervienen en el diseño de los modelos que explican el funcionamiento de los campos receptivos en las etapas tempranas de la visión humana [1-3].

Hay que tener presente que el realce de contornos puede ser un arma de doble filo: por un lado, puede mejorar notablemente la apariencia visual de una imagen, pero utilizada en exceso puede ocasionar efectos indeseados como halos alrededor de los objetos, bordes escalonados, moteados, etc. [4, 5].

El operador laplaciano o de derivada segunda es una herramienta muy utilizada para el realce de imágenes en escala de grises. Se aplica mediante una máscara de convolución sobre la imagen y el resultado se resta de la imagen original.

Para el realce de bordes en imágenes en color, el operador laplaciano puede extenderse, aplicándolo separadamente a cada componente R, G, B y combinando el resultado para obtener una imagen realzada en color, pero la imagen final obtenida de este modo no ofrece un buen aspecto [4]. Russ (2002) recomienda realzar únicamente la componente de intensidad (canal acromático) manteniendo las componentes de tono y saturación sin modificación alguna [5]. El espacio de color RGB a través de transformaciones lineales se puede trasladar a espacios que describen la intensidad y la cromaticidad por separado, como es el espacio HSI (Tono H, Saturación S, Intensidad I) [6].

Como espacio de color, está muy extendido el espacio CIELAB de coordenadas l*, a*, b*, cuyos valores se obtienen a partir de los valores triestímulo XYZ, utilizando fórmulas estándar [6-8].

El operador laplaciano en color ha sido también definido a partir de diferencias de color CIELAB entre píxeles vecinos [9]. En esta línea, cabe destacar la extensión denominada Spatial-CIELAB (o, simplemente S-CIELAB), propuesta por Zhang y Wandell (1996), para evaluar diferencias de color entre imágenes digitales teniendo en cuenta la distancia de observación [10]. Para ello utiliza una serie de filtros espaciales que suavizan la imagen en el espacio de colores oponentes y canal acromático (luminancia A, rojo-verde C1 y azul-amarillo C2). Los filtros espaciales utilizados por Zhang y Wandell son una combinación lineal de filtros gaussianos que aproximan las funciones de sensibilidad al contraste del sistema visual humano (HVS-Human Vision System) en cada canal oponente. La imagen filtrada simula la que se percibiría a una distancia de observación dada. La imagen filtrada puede transformarse al espacio CIELAB y ser comparada con otra que haya seguido un proceso de filtrado análogo, para medir las diferencias de color entre ellas mediante cálculo píxel-a-píxel. Las fórmulas de diferencias de color CIEDE2000 [11-13], combinadas con S-CIELAB, han sido bien valoradas para la comparación de imágenes digitales [14].

María S. Millán et al. (2006) proponen un nuevo método de realce de bordes en imágenes digitales en color llamado LoG-Vision que toma en consideración las condiciones de observación que configuran los modelos de los campos receptivos de la visión humana [15]. El método LoG-Vision combina el filtrado espacial en el canal acromático y en los canales oponentes definidos en la extensión S-CIELAB con el operador laplaciano. Esta combinación puede simplificarse introduciendo el operador laplaciano de gaussiana (LoG) [16].

E n este trabajo, se presentan ejemplos de las ventajas de emplear el método LoG-Vision para el realce de contornos de imágenes médicas en color. El método se aplica a imágenes del entorno clínico oftalmológico y optométrico.

 

II. MATERIALES Y MÉTODOS

A. Método

Sea una imagen I expresada en el espacio de color CIE1931 XYZ (independiente del dispositivo) que transformamos al espacio de canales oponentes AC1C2 [9]. En cada canal i, con i = {0 A,1 C1,2 C2}, el filtro Fdi que aproxima la función de sensibilidad al contraste del HVS es una combinación lineal de funciones gaussianas Gij de kernel.

donde d (píxeles/grado de ángulo de visión) indica la escala. Los valores de los pesos Wij y las anchuras σij expresadas en grados del ángulo de visión pueden obtenerse de [10].

La desviación estándar ij/ corresponde a una sensibilidad decreciente a medida que aumenta la distancia de observación. Las componentes de la imagen filtrada Idi se obtienen convolucionando

Las componentes filtradas se transforman de vuelta al espacio XYZ y, de allí, pueden transformarse al espacio CIELAB para una comparación colorimétrica con otra imagen o pueden transformarse al espacio sRGB para su presentación en monitor.

Siguiendo un modelo de realce de contornos mediante el operador LoG dado por la expresión

se propone incorporar las combinaciones lineales de gaussianas contenidas en los filtros espaciales Fdi en el operador LoG, para obtener:

La imagen realzada para presentar en el monitor y que se observa en las condiciones dadas por d sería y se calcula a partir de la expresión:

donde k es un parámetro de control para regular la intensidad de la operación.

La imagen realzada percibida ShIdi puede obtenerse por convolución

La Fig. 1 resume este algoritmo de realce de contornos en imágenes en color (LoG-Vision) que considera las condiciones de observación del sistema visual humano (distancia de observación y resolución espacial) aplicado a una imagen de papila.

Figura 1

B. Materiales

Los ejemplos descritos en este artículo hacen uso de dos imágenes adquiridas con diferentes instrumentos.

La imagen de la papila (fondo de ojo) es registrada usando una cámara no midriática, conocida como retinógrafo. Las imágenes fueron tomadas en la Escuela de Óptica y Optometría de Tarrassa, España. El instrumento usado es de la firma TOPCON TRC-NW6S, el cual usa una cámara de video con tecnología 3CCD (Sony DXC990P-sRGB), una lámpara tipo flash de xenón y un sistema de enfoque basado en infrarrojos el cual facilita el uso del instrumento y descarta la necesidad de dilatar la pupila, ver Fig. 2.

Figura 2

Las imágenes del párpado evertido son imágenes del estandar CCLRU (Cornea and Contact Lens Research Unit grading scale) [17, 18]. Se desconoce el instrumento de adquisición de la imagen real; la imagen ejemplo que se emplea es de la librería de imágenes en CD de la tabla patrón de la CCLRU que emplean los oftalmólogos especializados en contactología en el ejercicio de su profesión. Ver Fig. 3. El ejemplo del uso de esta imagen en este artículo se enfoca en mejorar el contraste que presenta la imagen.

Figura 3

 

III RESULTADOS

La Fig. 4 muestra un sector de la imagen retiniana (la papila o base del nervio óptico). Esta imagen, obtenida utilizando un retinógrafo no midriático (Fig. 2), se analiza por el especialista para evaluar el riesgo de glaucoma. Con frecuencia esta imagen presenta una definición pobre que aconsejaría la aplicación de un realce de contornos. La Fig. 4 muestra, por filas, la imagen original, la realzada con el método LoG{Fdi} y la realzada mediante un laplaciano simple, a tres distancias de observación dadas por d = 25,50,100 (píxeles/grado) (distancias equivalentes de l = 25,50,100 cm) y k = 5,0. Se aprecia que el mejor resultado corresponde al método propuesto y que el laplaciano simple tiende a incrementar el ruido.

Figura 4

La Fig. 5 muestra otro ejemplo de aplicación sobre una de las imágenes del estándar CCLRU utilizado para evaluar la severidad de la hiperemia de la conjuntiva tarsal superior, que puede aparecer por un uso inadecuado de lentes de contacto [17, 18]. En este caso, la imagen n° 3 de la serie muestra un grado de desenfoque mayor que las demás. En la parte inferior de la figura se muestran las imágenes realzadas para los valores de d = 25 (píxeles/grado), L = 25 cm., resolución =145 dpi y k = 5,0.

Figura 5

Se compara el resultado empleando el método LoG-Vision con el laplaciano simple. Se observa la diferencia entre las imágenes, siendo mejor apreciada la imagen que aplica el método LoG-Vision por generar menos ruido y por conservar la percepción del color. El laplaciano simple para este tipo de imagen crea falso color.

 

IV CONCLUSIÓN

Se ha descrito un método para realzar imágenes digitales en color que considera los modelos de visión humana y las condiciones de observación de las imágenes presentadas en un dispositivo como la pantalla de un monitor. Las condiciones de observación se expresan por medio del número de píxeles por el grado del ángulo visual, valor que a su vez se calcula a partir de la resolución del dispositivo (píxeles por centímetro) y la distancia de observación. El método realza los contornos de los objetos y los elementos de la imagen de manera distinta en función de la distancia a la que se va a observar la imagen presentada en el monitor (suponiendo fija la resolución del dispositivo). Para ello se combina el operador laplaciano de una gaussiana (LoG) con los filtros espaciales que aproximan las funciones de sensibilidad al contraste del sistema visual humano. Estos filtros se describen matemáticamente como combinaciones lineales de funciones gaussianas en el espacio de los colores oponentes.

La operación de realce se realiza en el espacio de colores oponentes, siguiendo el esquema de la extensión denominada S-CIELAB (spatial-CIELAB), propuesto previamente para medir la diferencia de color entre imágenes digitales espacialmente variantes. El realce aplicado a la imagen original combina el operador laplaciano con los filtros espaciales que simulan el efecto de suavizado, que tiene lugar en la percepción de la imagen para unas condiciones de observación determinadas.

A sí pues, el realce de contornos se adapta a las condiciones de observación. Cuando la imagen realzada se va a observar a corta distancia, el operador que se aplica utiliza gaussianas con menor anchura, llegándose a resaltar con un doble borde fino todos los contornos, tanto de los objetos grandes como de los detalles. Cuando la imagen realzada se observa a larga distancia, el operador que se aplica utiliza gaussianas con mayor anchura, de modo que solamente se llegan a resaltar con un doble borde grueso los contornos de objetos de mayor tamaño. En este último caso, los detalles no se resaltan, ya que, a distancias de observación largas, no se llegan a distinguir, sino que aparecen suavizados.

Este método sirve para el desarrollo de aplicaciones de ayuda al diagnóstico basado en imágenes y extiende su campo de acción a imágenes en color.

 

REFERENCIAS

[1] Norton T.T., Corliss D.A., Bailey J.E. The Psychophysical measurement of visual function. Butterworth-Heinemann, 2002.         [ Links ]

[2] Wandell B.A. Foundations of vision. Sinauer Associates, 1995.         [ Links ]

[3] Kaiser P. K., Boynton R. M. Human color vision. Optical Society of America, WA, 1996.         [ Links ]

[4] González R.C., Woods R.E., Eddins S.L. Digital image processing using MATLAB. 2004.         [ Links ]

[5] Russ J.C. The Image processing Handbook, 4th Edition. 2002.         [ Links ]

[6] Wyszecki G. Color science, 1982.         [ Links ]

[7] Berns R.S. Billmeyer and Saltzman's Principles of color technology, 2000.         [ Links ]

[8] Berns R.S., Reiman D.M. Color managing the 3rd edition of Billmeyer and Saltzman's Principles of color technology. Color Research & Application, 27, 5, 360-373, 2002.         [ Links ]

[9] Millán M.S., Valencia E. Colour image sharpening using colour difference based operators. Proceedings of the 10th Congress of the International Colour Association, Granada, España, 2005.         [ Links ]

[10] Zhang X., Wandell B.A. A spatial extension of CIELAB for digital color image reproduction. Soc. for Info. Disp. Symp. Tech. Digest, 27, 731-734, 1996.         [ Links ]

[11] Johnson G.M. Measuring images: Differences, quality and appearance, Ph.D. Dissertation, Rochester Institute of Technology, 2003.         [ Links ]

[12] Melgosa M., Pérez M.M., Yebra A., Huertas R., Hita E. Algunas reflexiones y recientes recomendaciones internacionales sobre evaluación de diferencias de color. Optica Pura y Aplicada., 34, 1-10, 2001.         [ Links ]

[13] Melgosa M., Huertas A., Berns R. S. Relative significance of the terms in the CIEDE2000 and CIE94 color-difference formulas. Journal of the Optical Society of America A,. 21, 12, 2269-2275, 2004.         [ Links ]

[14] Johnson G.M., Fairchild M.D. A top down description of S-CIELAB and CIEDE2000. Color Research and Application,. 28, 6, 425-435, December 2003.         [ Links ]

[15] Millán M.S., Valencia E. Color image sharpening inspired by human vision models. Applied Optics, 45, 29, 7684-7697, 2006.         [ Links ]

[16] Marr D., Hildreth E. Theory of edge detection. Proceedings of the Royal Society of London. Series B, Biological Sciences, 207, 187-217, 1980.         [ Links ]

[17] Terry R.L., et al. CCLRU standards for success of daily and extended wear contact lenses. Optometry & Vision Science, 70, 234-243, 1993.         [ Links ]

[18] Test de imágenes del párpado evertido de CCLRU (Cornea and Contact Lens Research Unit). Consultado el 22 de octubre de 2007 en: http://www.siliconehydrogels.org/grading_scales/DATA/front_page.htm.         [ Links ]