SciELO - Scientific Electronic Library Online

 
vol.15 número2DIFFERENTIAL ACTIVATION OF RECOMBINANT HUMAN LATENT TRANSFORMING GROWTH FACTOR-β1 (TGF-β1) BY ACID AND HEATOSTEOGENIC CELL CULTURE FROM PORCIN PERIOSTEUM FOR BIOMATERIAL EVALUATION índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


Revista Med

versão impressa ISSN 0121-5256versão On-line ISSN 1909-7700

rev.fac.med v.15 n.2 Bogotá jul./dez 2007

 

ARTÍCULO

MÉTODO AUTOMÁTICO DE REGISTRO PARA LA EVALUACIÓN DE LA MINERALIZACIÓN ÓSEA POSQUIRÚRGICA

AUTOMATIC REGISTRATION METHOD FOR THE EVALUATION OF POST SURGICAL BONE MINERALIZATION

GABRIEL MAÑANA, Ingeniero Eléctricoa, EDUARDO ROMERO, M.D., Ph.D.b* Y MARTHA ELENA FORERO, Cirujana Oral y Maxilofacialc


Recibido: Marzo 2 de 2007. Aceptado: Julio 11 de 2007.

a Grupo de Investigación BioIngenium, Centro de Telemedicina, Universidad Nacional de Colombia, Estudiante de Doctorado en Ingeniería de Eléctrica, Bogotá, Colombia.
b Grupo de Investigación BioIngenium, Director, Centro de Telemedicina, Universidad Nacional de Colombia.
c Federación Odontológica Colombiana, Docente Universidad Santo Tomás, Bogotá, Colombia.

* Correspondencia: edromero@unal.edu.co. Dirección postal: Universidad Nacional de Colombia, Ciudad Universitaria. Centro de Telemedicina. Carrera 30 No. 45-03, Bogotá DC. Colombia.



Resumen

La substracción digital es una técnica utilizada en estudios radiográficos de lesiones periapicales y otras lesiones dentales, en las cuales el tratamiento debe ser evaluado a través del tiempo. En este artículo se presenta un método automático, rápido y confiable, para el registro y substracción de radiografías digitalizadas con notorias diferencias de alineación. La estrategia de optimización que permite encontrar la transformación que registran las radiografías de forma óptima se basa en un algoritmo genético adaptativo (AG), que utiliza como medida de similitud la tasa de correlación estadística. El AG paralelo implementado aprovecha los ciclos libres de procesador de una malla de computadores personales estándar, dando como resultado un tiempo de ejecución cercano a los veinte segundos para el registro de radiografías intraorales estándar. Al utilizar una infraestructura de cómputo existente y software de libre distribución, el enfoque propuesto puede ser utilizado en hospitales públicos y otras instituciones de bajo presupuesto. La validación adelantada muestra que no se presentan diferencias significativas entre el sistema automático y el registro realizado de forma manual. Los resultados también evidencian que la técnica de substracción radiográfica digital es una herramienta determinante en la valoración de la mineralización ósea posquirúrgica en cirugía endodóntica, en ambientes clínicos donde no es viable seguir un protocolo de estandarización.

Palabras clave: mineralización ósea, genética.


Abstract

Digital subtraction is a common technique used in radiological studies of periapical lesions and other dental disorders, where treatment has to be evaluated over time. This paper shows a fast and reliable registration method for subtracting two digitized radiographs showing an unpredicted mismatch. An optimal affine transformation is found using an adaptive Genetic Algorithm (GA) as the optimizing strategy and a correlation ratio as the similarity measure. When processing pairs of standard intra-oral radiographs, the parallel GA implemented takes advantage of the CPU idle cycles of a computational grid, resulting in an application that exploits an existent infrastructure with a computational time of twenty seconds. By using an existing hardware infrastructure and software of free distribution, the proposed approach can be used in public hospitals and other institutions carrying low budget. The validation process shows that there are not significant differences between the automatic system and the manual registration. The results show that in endodontic surgery the technique of digital radiographic subtraction is a determining tool in the evaluation of post-surgical bone mineralization. Furthermore, it will be useful in clinical environments where there is not viable to follow a standardization protocol.

Key words: bone mineralization, genetics.


Introducción

La cirugía endodóntica es el tratamiento para salvar un diente cuando el sistema de conductos radiculares no puede ser totalmente debridado, o adecuadamente obturado. En el desarrollo de esta cirugía el tejido enfermo o reactivo se debe remover del hueso alveolar en la región perirradicular o lateral, alrededor del diente afectado [1] y posteriormente el ápice radicular se debe resecar y preparar, e insertar un material de obturación para sellar el conducto [2,3]. La evaluación de los cambios en los tejidos duros después de una cirugía perirradicular requiere de medidas de valoración clínica y radiográfica. Idealmente, el mejor estimado del estado de la formación ósea es la cirugía exploratoria. Sin embargo, este enfoque es inviable y es por esto que las medidas radiográficas no invasivas se han convertido en la principal herramienta de control [4], ya que cuando se obtienen mediante exámenes radiográficos secuenciales, permiten determinar la pérdida o la ganancia ósea en el postoperatorio de cirugías apicales.

La substracción digital es una técnica que facilita la detección de pequeños cambios óseos por medio de la generación y procesamiento de imágenes de alta resolución, los cuales y aunque clínicamente importantes, no siempre pueden detectarse, ya que la radiografía convencional requiere un cambio en la mineralización del 30% al 60% para hacerlos visibles [5-8]. La substracción digital de radiografías, que por definición requiere de la alineación o "registro" previo de las imágenes, fue introducida por Gröndahl et al. [9] y ha demostrado ser más sensible que la valoración radiográfica convencional en la detección de pequeños cambios óseos perirradiculares [10]. En comparación con la radiografía convencional, la digitalización de las radiografías proporciona una gran sensibilidad y especificidad diagnóstica, con el potencial de permitir la estimación numérica de la enfermedad y del proceso de cicatrización, principalmente en la etapa de aposición de minerales [11].

El control de la evolución de una cirugía perirradicular se hace por medio de radiografías tomadas en tiempos diferentes. La alineación se altera debido a diferencias en la posición del paciente respecto al cono radiográfico, o a las condiciones de exposición y procesamiento de la película [10]. Mediante el registro y posterior substracción de radiografías tomadas a un mismo paciente en tiempos diferentes, es posible detectar cambios en los tejidos, de otra forma imperceptibles. Este método ha resultado ser particularmente útil en el diagnóstico temprano de lesiones óseas y en el control de la evolución de patologías [4, 9,13]. Numerosos autores han mostrado la habilidad de este método para incrementar la calidad del diagnóstico de caries proximales [9], lesiones periapicales [4] y enfermedades periodontales, permitiendo evaluar la pérdida de hueso [14,15]. Particularmente, la substracción radiográfica también ha mostrado ser útil en la evaluación de la mineralización ósea posquirúrgica [13].

Un sistema de detección y seguimiento requiere, por lo tanto, de la alineación precisa de las radiografías para que estos cambios puedan ser detectados. Diferentes estrategias han sido propuestas para la corrección de las distorsiones geométricas presentes. Estas van desde la corrección manual [16], hasta el uso de dispositivos de fijación que aseguran una proyección consistente a través del tiempo [17]. Sin embargo, en la práctica clínica diaria, el odontólogo no cuenta con dispositivos para la fijación adecuada de los pacientes, una situación que ha limitado el uso de este método.

En este artículo se propone un método de registro radiográfico totalmente automático, para ser utilizado en aquellos casos donde aparecen notorias diferencias de alineación. El proceso comienza por la digitalización de las radiografías, donde una será considerada como imagen de referencia y la otra como imagen flotante. A continuación se eliminan las diferencias de iluminación por medio de un algoritmo de ecualización de intensidades descrito más adelante. Luego se aplican sucesivas transformaciones a la imagen flotante, comparando en cada paso la imagen resultante con la imagen de referencia y utilizando para esto una medida de similitud que permita determinar el grado de alineación. En esta etapa se utiliza un algoritmo genético, con el fin de encontrar la transformación que produce el registro óptimo. El proceso ha mostrado ser robusto, confiable y reproducible para el conjunto de radiografías digitalizadas, a la vez que está en capacidad de sustituir el registro manual.

Registro de imágenes

El registro de imágenes médicas plantea el problema de encontrar la transformación geométrica que permita alinear dos o más imágenes de forma óptima. El registro manual requiere de una aplicación interactiva en la que el experto pueda visualizar las radiografías a registrar y mediante el uso de dispositivos de entrada como ratón y teclado, aplicar las transformaciones necesarias para alinearlas; a medida que el experto va aplicando diferentes transformaciones, la aplicación va calculando el grado de alineación. Con el fin de reducir el tiempo requerido para la alineación de las imágenes de forma manual, se han desarrollado modalidades semiautomáticas basadas en puntos de referencia que deben aparecer en las radiografías a registrar. Estos puntos pueden provenir de un sistema de referencia o de fijación del paciente, o también de la selección manual por parte del experto, con la desventaja evidente para la primera modalidad, de requerir accesorios adicionales al equipo de rayos-X estándar.

Para determinar la transformación óptima -de forma totalmente automática- es necesario encontrar primero un criterio para medir el grado de alineación que existe entre la imagen transformada y la imagen considerada de referencia. Esta medida se conoce como medida de similitud y existen varios enfoques para calcularla, siendo los más fuertes aquellos basados en principios estadísticos y en conceptos tomados de la teoría de la información. En este trabajo el algoritmo utilizado para el registro automático, utilizó únicamente las intensidades de los píxeles de las imágenes para calcular el grado de alineación. El problema del registro radica en encontrar la transformación geométrica que maximiza la función que relaciona las posibles transformaciones con sus respectivas medidas de similitud, función de la que no se tiene una representación matemática. Mientras que desde el punto computacional se trata de un problema de optimización, dirigido a la búsqueda de un máximo global en un espacio multiparamétrico en extremo irregular, en donde métodos numéricos convencionales tienden a quedar atrapados en extremos locales, desde el punto clínico consiste en determinar si el sistema automático propuesto puede reemplazar el proceso de alineación manual que se adelanta en la valoración de la mineralización ósea posquirúrgica.

En general, todo método de registro está determinado por tres componentes principales: la transformación geométrica que relaciona la imagen flotante y la imagen de referencia; la medida de similitud que establece el grado de alineación que existe entre la imagen flotante transformada y la imagen de referencia y el esquema de optimización que permite encontrar la transformación geométrica que maximiza la alineación de las imágenes.

Metodología

Adquisición de las imágenes. Para esta investigación se seleccionó un grupo de nueve pacientes en postoperatorio de cirugía perirradicular, a los cuales se les tomó radiografías de control al mes y a los tres meses. Para las radiografías, tomadas por diferentes operadores, se utilizó un equipo radiográfico FIAD, modelo DR508, serie 5841139; portaplacas Rinn EndoRay II y película Kodak InSight Ultraspeed tipo D, revelada con líquidos Kodak GBX con diferente fatiga. Posteriormente, las radiografías se digitalizaron con un escáner Hewlett Packard ScanJet 3570, a una resolución de 600 x 600 DPI, produciendo imágenes de 724 x 930 píxeles y 256 intensidades de gris. Para la toma de las radiografías se usó la técnica de paralelismo o de ángulo recto, en la que la colocación de la película es paralela al eje del diente en ángulo recto a los rayos, con distorsiones mínimas [18,23].

Preprocesamiento. Los casos evaluados se seleccionaron intencionalmente de radiografías tomadas en la práctica clínica diaria. Para corregir el problema de diferencias de intensidad el sistema realiza automáticamente un preprocesamiento, que consiste en ecualizar la imagen flotante, con base en las intensidades presentes en la imagen de referencia [24]. Este algoritmo adaptativo calcula los histogramas de ambas imágenes y posteriormente distribuye de forma homogénea, las intensidades de la imagen flotante de acuerdo a las intensidades encontradas en la imagen de referencia, realzando de esta manera su contraste.

Criterio de interpolación. Al transformar una imagen, los puntos de la retícula resultante no coinciden necesariamente sobre los puntos de la retícula de llegada (Figura 1), es por ello que el cálculo de la intensidad de los píxeles de la imagen transformada requiere de un proceso de interpolación que se puede llevar a cabo utilizando diferentes funciones matemáticas, siendo la lineal la menos costosa, pero de muy baja precisión. Se obtienen mejores resultados interpolando con polinomios de alto grado, aunque el costo computacional crece proporcionalmente. En este trabajo la interpolación se realizó con splines porque utilizan polinomios de bajo grado, haciendo que su costo computacional sea aceptable, a la vez que permiten alcanzar una buena precisión; en particular utilizamos polinomios de orden 3, que muestran una adecuada aproximación del fenómeno continuo.

El Teorema del Muestreo de Nyquist-Shannon, Unser [25] muestra que los splines son la mejor representación discreta de una señal continua. Por ser uniformes, este tipo de splines presentan la ventaja adicional de que al ser precalculados al comienzo del algoritmo (para un par de imágenes dadas), se reduce significativamente el tiempo total de procesamiento.

Transformación geométrica. Como ya se vio, todo método de registro está determinado por la transformación geométrica, por la medida de similitud y por el esquema de optimización utilizados, en donde la transformación geométrica utilizada determina el conjunto de parámetros a encontrar. Según Gröndahl [14], las pequeñas deformaciones de tejido óseo pueden ser modeladas de forma apropiada por medio de transformaciones afines o proyectivas. Teniendo en cuenta que las radiografías obtenidas para este trabajo eran en su mayoría de plano oclusal, donde es fácil posicionar el cono radiográfico de forma perpendicular al diente de interés, se utilizaron transformaciones afines, porque permiten corregir diferencias de desplazamiento, ángulo y distancia. Al usar este tipo de transformaciones, los parámetros a encontrar eran la traslación en ambos ejes, el ángulo de rotación y el factor de escalamiento.

Medida de similitud. La información mutua [38], utilizada con éxito en el registro de imágenes multimodales como por ejemplo imágenes de resonancia y de tomografía, o tomografía y PET, asume únicamente una dependencia estadística entre las intensidades de las imágenes a registrar [26,38]. Las intensidades son tratadas de una forma puramente cualitativa, sin considerar la información espacial o correlación que pueda existir entre valores de intensidad cercanos. Los métodos de registro en los que se utiliza la información mutua se basan en la reducción de la entropía, efecto que se puede visualizar como la formación de agrupamientos en el histograma conjunto.

En nuestro caso, dado que trabajamos con imágenes monomodales de tejido natural, pudimos asumir correctamente la existencia de una correlación funcional entre las imágenes. Bajo esta presunción, la información mutua como medida de similitud no era aplicable, al no tener en cuenta la existencia esta correlación. El concepto de dependencia funcional, fundamental en estadística, nos provee entonces el marco de referencia para el cálculo de una medida de similitud entre dos imágenes. Para aplicar este concepto consideramos las imágenes como variables aleatorias y de esta forma interpretar el histograma como la función de densidad de probabilidad. Generalmente la similitud entre dos imágenes se calcula basándose en los valores de intensidad, sin embargo y por tratarse de imágenes de tejido natural, provenientes de una misma modalidad (rayos-X), pudimos asumir la existencia de una correlación funcional entre ellas, con lo cual la tasa de correlación [26] era la mejor opción.

Esquema de optimización. El problema de encontrar el máximo global de una función, de la cual no se conoce su formulación matemática, presenta varios desafíos a nivel computacional. En general, los métodos numéricos estándar tales como el método Downhill Simplex, o el método de Powell convergen rápidamente a la solución, cuando la función objetivo varía suavemente [27]. En caso contrario son muy sensibles a las condiciones iniciales escogidas y por lo tanto tienen la tendencia a quedar atrapados en extremos locales que no constituyen el óptimo. Una alternativa es utilizar algoritmos genéticos, que si bien son computacionalmente costosos, también son, como veremos, inherentemente paralelos.

Operadores de cruce y mutación. El diseño de un algoritmo genético orientado a resolver un problema en particular, comienza con el diseño del esquema de codificación del genoma de los individuos. Como en nuestro caso se trata de encontrar los parámetros de una transformación geométrica afín, existen dos opciones para la codificación del genoma. La primera y más sencilla consiste en utilizar una cadena binaria, en la que se codifican los valores de traslación, rotación y escalamiento. Este esquema, conocido como codificación binaria, tiene la ventaja de que los operadores de cruce y de mutación se pueden implementar de forma muy natural. Para generar un nuevo individuo -a partir del cruce de otros dos- se genera una posición de cruce aleatoria en la cadena de bits y luego, el nuevo individuo se forma con las partes complementarias de los individuos progenitores. La figura 2 ilustra el proceso de cruce en este esquema.

El operador de cruce se implementó como una variación del operador de cruce promedio presentado por Davis [29]. En este operador, el genoma del individuo descendiente se forma a partir de una interpolación convexa de los genes de los progenitores:

El operador de mutación, que simula el proceso de variabilidad genética, simplemente selecciona un bit de la cadena al azar e invierte su valor. Si bien el esquema de codificación binaria tiene las ventajas mencionadas, presenta asimismo la desventaja de utilizar números enteros para codificar los diferentes parámetros, limitando así la precisión del algoritmo. Por esta razón en el presente trabajo se codificó el genoma del individuo como un conjunto de números reales (Figura 3. Sin embargo, los operadores genéticos ya no se pueden implementar de una forma natural como en el caso de la codificación binaria.

El operador de mutación se aplica para garantizar que la probabilidad de recorrer cierto subespacio del espacio del problema nunca sea cero [30], siendo esto lo que impide que el algoritmo quede atrapado en extremos locales [31,32]. El operador de mutación utilizado, conocido como "real number creep", barre el genoma del individuo bien sea adicionando, o substrayendo, un ruido aleatorio de distribución Gaussiana.

La primera población es generada a partir de un individuo que representa la mejor transformación entre la transformación nula y la transformación centro de masa. La transformación nula corresponde a valores de traslación y de rotación en cero, mientras el factor de escalamiento es uno. El centro de masa de una imagen es una analogía del centro de masa de un objeto y se calcula como la proporción entre la suma de las coordenadas ponderadas por las intensidades de los píxeles y la suma de las coordenadas. La transformación centro de masa estará compuesta entonces por la traslación necesaria para hacer coincidir los centros de masa de las imágenes, rotación en cero y factor de escalamiento en uno. A continuación, ambos individuos (transformaciones) son evaluados y aquel que resulte en una medida de similitud mayo, será utilizado como origen de la población inicial. Los individuos restantes son generados a partir de variaciones aleatorias de la transformación que representa este individuo.

Una vez construida la población inicial, comienza un proceso iterativo, en el que se producen generaciones sucesivas de individuos. El proceso iterativo termina cuando se obtiene (un individuo que representa) una transformación que produce una medida de similitud mayor a cierto valor preestablecido. Este valor se determina de forma heurística para cada problema en particular (0,99 en este trabajo). Como el valor sólo se obtiene con imágenes muy parecidas, el algoritmo es detenido cuando alcanza un número de máximo de iteraciones (200 en el presente trabajo). En la práctica, el algoritmo es detenido cuando la diferencia de medida de similitud del mejor individuo de una generación respecto al mejor individuo de la generación anterior, es menor que cierto valor (10^-6 en nuestro caso).

Parámetros del algoritmo genético. Además del esquema de codificación y de la función de aptitud, los algoritmos genéticos se caracterizan por un conjunto de parámetros que dependen exclusivamente del problema a resolver y, que por lo tanto, deben analizarse para cada nuevo problema. Estos parámetros incluyen el tamaño de población apropiado, el criterio de selección que permita determinar los sobrevivientes de una generación, la probabilidad de cruce y la probabilidad de mutación. Existen varios criterios de selección de supervivientes, pero básicamente se reducen a dos: el elitismo y la selección por torneo. En el elitismo se selecciona el mejor individuo de la generación y éste será el único sobreviviente y progenitor del resto de la población de la siguiente generación. En la selección por torneo se extrae al azar un grupo (de tamaño a determinar) de individuos de la población actual, éstos compiten entre sí y solo el mejor del grupo será seleccionado. Este proceso se repite hasta completar el total de la población. Cabe anotar que en este esquema de selección no siempre sobrevive el mejor de los individuos, al igual que en la selección por elitismo no siempre se descarta al peor. Según ciertas probabilidades, también a determinar, los individuos sobrevivientes son sometidos a cruce y mutación. Es fundamental entender hasta aquí que estos parámetros los determina la mejor medida de similitud obtenida con la experimentación. Como estos parámetros no se conocen a priori, es importante experimentar sobre un rango amplio de valores, típicamente entre 0,1 y 0,99 para las probabilidades de cruce y mutación con incrementos de 0,1. De igual manera, con tamaño fijo de población de 120 individuos, el tamaño del torneo fue variando desde 10 hasta 120 con incrementos de cinco individuos en cada paso.

Paralelización del algoritmo. En cada iteración del algoritmo, la población de individuos es evaluada en búsqueda de una transformación que produzca una medida de similitud mejor que la obtenida hasta el momento. La evaluación de la función de aptitud consiste en aplicar la transformación geométrica a la imagen flotante y calcular luego la medida de similitud correspondiente. Esta operación, computacionalmente intensiva, se debe ejecutar para cada individuo de la población. Teniendo en cuenta que la evaluación de la aptitud de un individuo se puede llevar a cabo de forma independiente del resto del resto de la población, esta parte del algoritmo, que representa el 95% del tiempo total de ejecución, se puede ejecutar en paralelo.

Tradicionalmente, la ejecución en paralelo de un algoritmo requería de un gran computador con múltiples procesadores, pero la proliferación en masa que se presenta desde hace ya unos años, de computadores personales y de redes de área local, permitió el surgimiento de un nuevo modelo de programación y de ejecución de procesos. Se aprovechan los ciclos libres de CPU de los computadores (porcentaje cercano al 90%) y se utilizan en la ejecución de procesos paralelos en forma distribuida. Este modelo, conocido como malla computacional, se utilizó para la paralelización del algoritmo genético implementado. El algoritmo se ejecutó en una malla computacional compuesta por 120 computadores personales con procesadores de 1GHz y memoria en el rango de 256 a 512 Mbytes, basada en JavaSpaces1 , utilizando un patrón de distribución conocido como "replicated-worker" [37]. El código fuente del algoritmo genético desarrollado, así como documentación adicional sobre la malla computacional utilizada, se puede encontrar en el sitio del proyecto unGrid en http://ungrid.unal.edu.co/

.

Para determinar tamaño de población, el tamaño de torneo (nótese que algorítmicamente el elitismo es un caso particular de torneo) y las probabilidades de cruce y de mutación, se ejecutaron 4580 experimentos. En este caso, un experimento es la ejecución del algoritmo con una combinación particular de imágenes y parámetros. Para esta fase de la investigación, la malla computacional resultó un recurso invaluable. La tabla 1 muestra la combinación de parámetros que produce los mejores resultados.

Validación del algoritmo. Para la validación del algoritmo implementado se adelantaron dos clases de experimentos. En el primero se comparó el algoritmo genético con el método numérico Downhill Simplex (DS) de Nelder y Mead [27], escogiendo éste, entre todos los métodos numéricos utilizados en optimización, por ser el menos sensible a las condiciones iniciales. En estos experimentos y con el fin de establecer la capacidad de los dos algoritmos para encontrar los parámetros de transformación utilizados, en un primer grupo se utilizaron imágenes sintéticas generadas a partir de radiografías reales modificadas manualmente, mientras que en el segundo y para poder comparar los índices de similitud obtenidos por los algoritmos, se utilizaron imágenes reales.

Para la segunda clase de experimentos se desarrolló una aplicación interactiva, con que un odontólogo experto en el área podía registrar pares de radiografías de forma manual. La reproducibilidad del método se evaluó por medio del análisis del coeficiente de variación existente entre los resultados obtenidos de forma manual y los obtenidos de forma automática. En este caso la hipótesis nula es que no existen diferencias significativas entre los índices de similitud obtenidos por ambos métodos. El propósito de estos experimentos fue el de establecer la utilidad del sistema de registro como ayuda diagnóstica, en centros hospitalarios en los que se deben analizar grandes volúmenes de casos.

Resultados

Adquisición de las imágenes. Con el fin de establecer la resolución óptima de digitalización de las radiografías, se realizaron pruebas con los diferentes valores estándar. A una resolución de 300 DPI, las imágenes resultantes (362 x 465) no proveyeron el nivel de detalle necesario para el registro manual por parte de los expertos, mientras que a una resolución de 1200 DPI (imágenes de 1448 x 1860) si lo hicieron, con un excelente nivel de detalle pero con 16 veces la cantidad de píxeles que a 300 DPI, por lo que el tiempo de procesamiento se multiplica aproximadamente por 20. Con base en la capacidad de los expertos para evaluar la información presente en las radiografías se determinó que la resolución más apropiada era la de 600 DPI, pues a esta resolución las imágenes resultantes (724 x 930) permiten el registro manual y su procesamiento automático en un tiempo razonable (< 20s).

Preprocesamiento de las imágenes. En las primeras etapas de la investigación se hicieron pruebas de registro automático utilizando las radiografías digitalizadas sin procesamiento adicional alguno, pero se encontró que la ecualización de intensidades resulta ser un prerrequisito crucial para el proceso de registro automático. Este se lleva a cabo una sola vez, al comienzo del proceso, necesitando de 32 milisegundos en un computador personal con procesador Intel Pentium 4 de 1,5GHz.

Criterio de interpolación. La interpolación por medio de B-splines es apropiada con respecto a la calidad de las imágenes resultantes, siendo un método costoso desde el punto de vista computacional: el tiempo de procesamiento para una radiografía digitalizada a 600 DPI es de 1100 milisegundos, comparado con la interpolación bilineal que requiere de tan sólo 160 milisegundos.

Transformación geométrica. Las transformaciones afines que se utilizaron corrigen las deformaciones presentes en las imágenes, pues como ya se mencionó, provienen de radiografías de plano oclusal. En aquellos estudios en los que no es fácil posicionar el cono radiográfico de forma perpendicular al diente de interés, como sucede en el caso de imágenes provenientes de radiografías de maxilar superior, se hace necesario utilizar transformaciones proyectivas, ya que estas incluyen un par de parámetros adicionales que permiten corregir la inclinación del cono radiográfico respecto al plano del diente.

Método de registro. El método que se usó es automático, no rígido, basado en la intensidad de imágenes bidimensionales provenientes de la misma modalidad de adquisición y que utiliza un enfoque de optimización evolutivo. A pesar de su costo computacional, se seleccionó un algoritmo genético (AG) por su alta inmunidad a extremos locales, por su paralelismo intrínsico y por su habilidad para trabajar en espacios muy grandes e irregulares en extremo. Un diverso conjunto de ejemplos de aplicación de los AG se presenta en "The Practical Handbook of Genetic Algorithms: Applications" [33]. En la literatura se encuentran múltiples aplicaciones de estos algoritmos en el registro de imágenes mono y multi modales, en registro 2D y 3D [33-35]. Para calcular la aptitud de un individuo, que indica la similitud existente entre la imagen transformada (según los parámetros que representa el individuo) y la imagen de referencia, se utilizó la tasa de correlación discutida anteriormente.

Experimentos con imágenes sintéticas. El conjunto de imágenes sintéticas se creó aplicando las transformaciones mostradas en la tabla 2, al grupo de radiografías digitalizadas. Los algoritmos se ejecutaron diez veces por cada par de imágenes, el AG se ejecutó en la malla computacional y el DS en uno de los equipos de la misma malla.

Los parámetros de transformación y sus correspondientes tasas de correlación obtenidas por el algoritmo genético y por el método DS se presentan las tablas 3 y 4 respectivamente.

El error de precisión se calculó según:

en donde ov representa el valor obtenido y ev el valor esperado. Estos resultados demuestran que en todos los casos, con el AG se obtienen mejores tasas de correlación que con el método DS.

Experimentos con imágenes reales. Las propiedades comparadas en este experimento fueron precisión, en términos de la tasa de correlación obtenida, y eficiencia, en términos del tiempo de ejecución y el uso de recursos. Ambos algoritmos (AG y DS) se codificaron en lenguaje Java, usando las mismas rutinas para transformar la imagen flotante y calcular la tasa de correlación. El AG se ejecutó en la malla computacional y el DS en uno de los equipos de la malla. Un resumen de los resultados obtenidos se presenta en la tabla 5. Aquí es importante resaltar que algoritmo DS resultó, como se esperaba, muy sensible a los parámetros iniciales y no siempre alcanzó un máximo global.

Mientras que en algunos experimentos el DS obtuvo mejores resultados que el AG, en otros obtuvo valores muy lejanos de los correctos, lo que se ve reflejado en la baja precisión general que muestra la tabla 5. Con respecto al tiempo de ejecución, cabe anotar que la malla computacional que se usó en la ejecución del AG, sólo utiliza los ciclos libres del procesador de los computadores que hacen parte de la malla.

La (figura 4 muestra, en la fila superior, un par de radiografías a ser registradas y en la fila inferior, el resultado de la substracción sin corrección (izquierda) y con corrección (derecha). Los niveles de intensidad nula se desplazaron 128 unidades con el fin de hacer más visibles los cambios en el tejido. En este ejemplo se puede apreciar que el registro es suficientemente preciso como para hacer medidas objetivas, a pesar de que en la segunda radiografía, el quinto diente (de izquierda a derecha) se encuentra casi oculto. También se puede observar una diferencia en la raíz del tercer diente, que corresponde a nuevo tejido desarrollado después del tratamiento. Estos pequeños cambios son imposibles de observar en la substracción sin corrección (imagen inferior izquierda), o por simple comparación de las radiografías reales.

Validación por expertos. La segunda clase de experimento comparó los resultados obtenidos por el sistema automático, con los obtenidos por expertos en el área mediante un sistema de registro manual (figura 5), contando con la colaboración de cuatro expertos (cirujanos maxilofaciales) que utilizaron el sistema de registro manual. Para ello se desarrolló una aplicación interactiva con la que el experto podía visualizar las radiografías y aplicar, mediante el uso de ratón y de teclado, las transformaciones necesarias para registrarlas.

A medida que el experto iba aplicando las diferentes transformaciones, la aplicación iba a su vez calculando la tasa de correlación respectiva. Esto le permitía determinar la dirección en el espacio de parámetros, en la cual la tasa de correlación aumentaba. Los parámetros de transformación que utilizaron para el registro se almacenaron y se compararon estadísticamente con los hallados por el sistema automático, encontrándose con el análisis de varianza (ANOVA) que no existió una diferencia significativa entre los valores obtenidos por los expertos y los obtenidos por el método automático (F= 3,6 y p=0,3).

Discusión

El presente trabajo propone un método de registro y substracción completamente automático y original. Los resultados obtenidos muestran que el método automático alcanza, en todos los casos, medidas de similitud superiores a las obtenidas por los diferentes expertos. Esto se debe básicamente a que el método automático utiliza todos los píxeles de las imágenes para alcanzar la mejor medida de similitud, lo cual no implica necesariamente que el registro sea cualitativamente mejor que aquel hecho por el experto. El experto, por el contrario, concentra su atención en la región de interés, por lo tanto, aunque obtenga una medida de similitud inferior, esta región puede resultar mejor registrada. Por otra parte, la evaluación cualitativa hecha por los expertos de los registros automáticos permite asegurar que el sistema propuesto está en capacidad de sustituir, y por lo tanto evitar, el dispendioso proceso de registro manual. En aquellos casos en los que el método automático obtiene un registro que no es óptimo desde el punto de vista cualitativo, el experto puede utilizar el sistema de visualización que incluye herramientas para el registro manual, mejorando así el registro de la región de interés. Se podría pensar entonces en un sistema semiautomático, con el que el experto marcaría, previo al registro automático, la región de interés. Sin embargo, en la mayor parte de los casos el método automático logra un registro apropiado, ahorrándole así un tiempo valioso al experto, máxime cuando se trata de evaluar múltiples casos.

Con respecto al algoritmo de optimización utilizado y, analizando el comportamiento de los algoritmos estudiados, se puede notar que el algoritmo genético requiere de pocas iteraciones para llegar a la zona del máximo global, en ningún caso más de diez. Una vez que se encuentra en esa zona, el algoritmo genético hace muchas iteraciones para llegar al óptimo (de noventa a cien iteraciones). Por otra parte, un método estándar como Downhill Simplex, cuando es iniciado con un conjunto de parámetros apropiados, converge muy rápidamente al máximo global. Este análisis nos permite concluir que la solución más eficiente es un algoritmo híbrido, que utilice la versión paralela del algoritmo genético para llegar a la zona del máximo global y, una vez allí, continúe con un método como Downhill Simplex. La figura 6 muestra esquemáticamente el cambio de algoritmo.

La estrategia de cambiar de algoritmo plantea el problema de decidir cuándo hacer el cambio, i.e., cómo determinar que efectivamente se ha llegado a la zona del máximo global. Analizando los resultados de las ejecuciones del algoritmo genético con el fin de determinar la mejor combinación de parámetros, se puede concluir que se ha alcanzado esta zona cuando la diferencia entre dos máximos sucesivos es menor a 10^-3.

Con base en los resultados obtenidos se concluye también que el método automático propuesto está en capacidad de reemplazar el registro manual de radiografías digitalizadas y que la técnica de substracción radiográfica digital es una herramienta determinante en la valoración de la mineralización ósea posquirúrgica en cirugía endodóntica, en ambientes clínicos en los que no es viable seguir un protocolo de estandarización. De ahí y teniendo en cuenta que el algoritmo implementado utiliza una infraestructura de cómputo existente y un software de libre distribución, el enfoque propuesto puede utilizarse en hospitales públicos y en otras instituciones de bajo presupuesto. Por último, hay que anotar que la técnica presentada es extensible a otros problemas relacionados con la substracción radiográfica digital, tales como valoración de algunos casos de osteosíntesis, o de valoración mamográfica.

Agradecimientos

Los autores expresan su agradecimiento a todos aquellos que de alguna manera colaboraron en la realización de esta investigación, en particular a las doctoras María Fernanda Serpa, Martha Lucía Villamil y Catalina Acosta, quienes participaron en los experimentos de registro manual que permitieron validar el método propuesto.


Referencias

1. Lin P. Perirradicular Curetaje, International Endodontic Journal. 1996;29: 220-227         [ Links ]

2. Abramowitz A, Trope E. Multidisciplinary approach to apical surgery in conjunction with the loss of bucal cortical plate. Oral Surgery, Oral Medicine, Oral Pathology, Oral Radiology, and Endodontology. 1994;77(5):502-506         [ Links ]

3. Gartner A, Dorn S. Avances en cirugía endodóntica. Dental Clinics of North America. 1992;36(2):357-78.         [ Links ]

4. Gröndahl K. A digital subtraction technique for dental radiography. Oral Surgery. 1983pp. 55:96-102.         [ Links ]

5. Parashis A. Comparasion of 2 Regenerative Procedures-Guided Tissue Regeneration and Demineralized Freeze-Dried Bone Allograft-in the Treatment of Intrabony Defects: A Clinical and Radiographic Study". Journal of Periodontology. 1998;69(7):58-78.         [ Links ]

6. Eastman Kodak Company, "Los rayos X en Odontología", Kodak Mexicana, 1964.         [ Links ]

7. Harrison K. Wound Healing in the Tissues of the Periodontium Following Periradicular Surgery. The Osseous Excisional Wound, Journal of Endodontics. 1991;17(9):425-435.         [ Links ]

8. Mayfield-Donahoo M. Semiautomated image registration for digital subtraction radiography. Oral Surgery, Oral Medicine. Oral Pathology, Oral Radiology, and Endodontology. 1998;85(4):473-478.         [ Links ]

9. Gröndahl K, Gröndahl T. Statistical contrast enhancement of subtraction images for radiographic caries diagnosis. Oral Surgery. 1982; 53:219-223.         [ Links ]

10. Fidler A. Influence of developer exhaustion on accuracy of quantitative digital subtration radiography. Oral Surgery, Oral Medicine, Oral Pathology, Oral Radiology, and Endodontology. 2000;(2):233-239, 2000.         [ Links ]

11. Delano D. Quantitative radiographic follow-up of apical surgery: a radiometric and histologic correlation, Journal of Endodontics. 1998;69(7): 125- 130         [ Links ]

12. Hiller R, Wenzel A. Quantitative digital subtraction radiography for the determination of small changes in bone thickness. Oral and Maxillofacial Radiology, 85(4):462-472.         [ Links ]

13. Ekberg E. An evaluation of digital subtraction radiography for assessment of changes in position of the mandibular condyle. Dentomaxillofacial Radiology. 1998;27:230-233.         [ Links ]

14. Gröndahl K. Subtraction radiography for the diagnosis of periodontal bone lesions, Oral Surgery. 1983;55:208-213.         [ Links ]

15. Nummikoski T, Dove B. Digital subtraction radiography in artificial recurrent caries detection. Dentomaxillofacial Radiology. 1992;29(2):59-64         [ Links ]

16. Wenzel A. Effect of manual compared with reference point superimposition on image quality in digital subtraction radiography. Dentomaxillofacial Radiology. 1989;18:145-150         [ Links ]

17. Ludlow J. Comparison of stent versus laser-and cephalostat-aligned periapical film-positioning techniques for use in digital subtraction radiography. Oral Surgery 1994;77(2):208-215         [ Links ]

18. Canalda C. Endodoncia técnica clínica y bases científicas. Editorial Masson; España: 2001.         [ Links ]

24. Ruttimann U. A robust digital method for film contrast correction in subtraction radiography. Journal of Periodontal Research. 1986;21:486-495         [ Links ]

25. M. Unser, "Sampling-50 Years after Shannon", Proceedings IEEE, pp. 88(4):569-587, 2000.         [ Links ]

26. Pennec X, Ayache N. Multimodal image registration by maximization of the correlation ratio. INRIA Sophia Antipolis, Rapport de recherche 3378. 1998;16:48-62         [ Links ]

27. Press W, Flannery B.Numerical Recipes in C, The Art of Scientific Computing. Cambridge University Press. Second Edition. New York: 2002.         [ Links ]

28. Holland J. Adaptation in Natural and Artificial Systems. University of Michigan Press, Ann Arbor. 1975;58:329-346         [ Links ]

29. Davis L. Handbook of genetic algorithms. Van Nostrand Reinhold. 1991;5:435-440         [ Links ]

30. Chipperfield D. Parallel Genetic Algorithms. Parallel and Distributed Computing Handbook by A. Y. H. Zomaya, McGraw-Hill; New York: 1996         [ Links ]

31. Husband P. Genetic Algorithms in Optimization and Adaptation. Advances in Parallel Algorithms by Kronsjo and Shumsheruddin. 1990;47:227-276         [ Links ]

32. Goldberg D. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, Reading Massachusetts. 1989;58:305-324         [ Links ]

33. Chambers L. The Practical Handbook of Genetic Algorithms: Applications. Second Edition. Chapman and Hall/CRC Press, Inc: 2000.         [ Links ]

34. Cross A. Genetic search for structural matching. Computer vision - ECCV.1996; 514-525         [ Links ]

35. Laksanapanai B, Withayachumnankul W. Acceleration of Genetic Algorithm with Parallel Processing with Application in Medical Image Registration. Lecture notes of the 13th International Conference in Central Europe on Computer Graphics, Visualization and Computer Vision, University of West Bohemia: 2005.         [ Links ]

36. Jacq J. Registration of non-segmented images using a genetic algorithm. Computer vision, virtual reality, and robotics in medicine. Lecture notes in Computer Science. 1995;905:205-211         [ Links ]

37. Freeman E, Hupfer S. JavaSpaces(tm) Principles, Patterns, and Practice. Pearson Education. 1999;4:153-164         [ Links ]

38. Maintz J. An Overview of Medical Image Registration Methods. Symposium of the Belgian Hospital Physicists Association. 1997;12:1-22         [ Links ]

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons