<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0012-7353</journal-id>
<journal-title><![CDATA[DYNA]]></journal-title>
<abbrev-journal-title><![CDATA[Dyna rev.fac.nac.minas]]></abbrev-journal-title>
<issn>0012-7353</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional de Colombia]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0012-73532007000100018</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[SINTONIZACIÓN DE PARÁMETROS DE MODELOS POR MEDIO DE GA, EN EL RECONOCIMIENTO DE POSTURAS LABIALES]]></article-title>
<article-title xml:lang="en"><![CDATA[MODEL PARAMETERS TUNING USING GA, ON LIP POSTURES RECOGNITION]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[JARAMILLO]]></surname>
<given-names><![CDATA[JORGE A.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[GONZÁLEZ]]></surname>
<given-names><![CDATA[JUAN R.]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[CASTELLANOS]]></surname>
<given-names><![CDATA[GERMÁN]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia, Manizales Grupo Control y Procesamiento Digital de Señales ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Nacional de Colombia, Manizales Grupo Control y Procesamiento Digital de Señales ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Nacional de Colombia, Manizales Grupo Control y Procesamiento Digital de Señales ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>03</month>
<year>2007</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>03</month>
<year>2007</year>
</pub-date>
<volume>74</volume>
<numero>151</numero>
<fpage>185</fpage>
<lpage>194</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0012-73532007000100018&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0012-73532007000100018&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0012-73532007000100018&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Se presenta un sistema de segmentación y reconocimiento de posturas labiales en imágenes por medio de la sintonización de modelos con parámetros ajustables: Para la segmentación se usa una plantilla deformable y para la caracterización se usa un modelo de variación de los contornos labiales. Ambos modelos son sintonizados por medio de algoritmos genéticos del tipo canónico, alcanzando desempeños de hasta el 86.5% y 76.6% respectivamente.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Here, a lip posture recognition and segmentation system by means of tuning adjustable parameter models, is shown. For segmentation, deformable templates are used, and for feature extraction a variational model of lip contours is implemented. Both models are tuned by canonical genetic algorithms yielding performances up to 86.5% and 76.6% respectively.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Algoritmos genéticos]]></kwd>
<kwd lng="es"><![CDATA[Segmentación de imágenes]]></kwd>
<kwd lng="es"><![CDATA[Caracterización]]></kwd>
<kwd lng="es"><![CDATA[Clasificación de patrones]]></kwd>
<kwd lng="es"><![CDATA[Análisis de componentes principales]]></kwd>
<kwd lng="es"><![CDATA[Descomposición en valores singulares]]></kwd>
<kwd lng="en"><![CDATA[Genetic Algorithms]]></kwd>
<kwd lng="en"><![CDATA[Image segmentation]]></kwd>
<kwd lng="en"><![CDATA[Feature extraction]]></kwd>
<kwd lng="en"><![CDATA[Pattern classification]]></kwd>
<kwd lng="en"><![CDATA[Principal component analysis]]></kwd>
<kwd lng="en"><![CDATA[Singular values descomposition]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <div align="center"><b>SINTONIZACIÓN DE PARÁMETROS DE MODELOS POR     <br>   MEDIO DE GA, EN EL RECONOCIMIENTO DE POSTURAS     <br>   LABIALES   </p> </b></div>     <p align="center"><b>MODEL PARAMETERS TUNING USING GA, ON LIP    <br>  POSTURES RECOGNITION</b></p>     <p align="center"><b>JORGE A. JARAMILLO   </b>    <br>   <i>Universidad Nacional de Colombia, Manizales, Grupo Control y Procesamiento Digital de Señales, <a href="mailto:jajaramillog@gmail.com">jajaramillog@gmail.com</a></i> </p>     <p align="center"> <b>JUAN R. GONZÁLEZ </b>    <br>   <i>Universidad Nacional de Colombia, Manizales, Grupo Control y Procesamiento Digital de Señales, <a href="mailto:gcastell@telesat.com.co">emarshall311@hotmail.com</a> </i></p>     <p align="center"> <b>GERMÁN CASTELLANOS </b>    ]]></body>
<body><![CDATA[<br>   <i>Universidad Nacional de Colombia, Manizales, Grupo Control y Procesamiento Digital de Señales, <a href="mailto:gcastell@telesat.com.co">gcastell@telesat.com.co</a></i></p>     <p align="center">   <b>Recibido para revisar 15 de Diciembre de 2005, aceptado 6 de Abril de 2006, versión final 23 de Junio de 2006</b></p>     <p><b>RESUMEN:</b> Se presenta un sistema de segmentación y reconocimiento de posturas labiales en imágenes por medio de la sintonización de modelos con parámetros ajustables: Para la segmentación se usa una plantilla deformable y para la caracterización se usa un modelo de variación de los contornos labiales. Ambos modelos son sintonizados por medio de algoritmos genéticos del tipo canónico, alcanzando desempeños de hasta el 86.5% y 76.6% respectivamente.  </p>     <p><b>PALABRAS CLAVE: </b>Algoritmos genéticos, Segmentación de imágenes, Caracterización, Clasificación de patrones, Análisis de componentes principales, Descomposición en valores singulares. </p>     <p><b>ABSTRACT: </b>Here, a lip posture recognition and segmentation system by means of tuning adjustable parameter models, is shown. For segmentation, deformable templates are used, and for feature extraction a variational model of lip contours is implemented. Both models are tuned by canonical genetic algorithms yielding performances up to 86.5% and 76.6% respectively. </p>     <p> <b>KEYWORDS:</b> Genetic Algorithms, Image segmentation, Feature extraction, Pattern classification, Principal component analysis, Singular values descomposition. </p>     <p><b>1. INTRODUCCIÓN</b></p>     <p> En los últimos años se ha propuesto el empleo del reconocimiento de posturas labiales (speechreading) usando técnicas de procesamiento digital de imágenes, como complemento al análisis acústico para el reconocimiento de patologías asociadas a problemas o alteraciones de la emisión de voz [1].    La aplicación más difundida consiste en la creación de un modelo de los labios, cuyos parámetros sean ajustables para obtener versatilidad en las formas a reconocer. Sin embargo, una vez construido el modelo, la </p>     <p>sintonización de estos parámetros ha sido sometida a diversas restricciones prácticas. Por ejemplo, en [2] se utiliza el método de plantillas deformables descrito en [3]. El contorno de los labios es modelado por un conjunto de polinomios codificados que se ajustan al gradiente de la imagen considerada. La búsqueda en la imagen es llevada a cabo bajo la suposición de que se tienen bordes gruesos en los contornos de los labios. Esta suposición es violada en muchos casos reales, y además, la dependencia sobre la elección inicial de los polinomios no permite modelar contornos con detalles finos. En [4], se presenta una aplicación usando splines [5] y filtros de Kalman en la que se impusieron restricciones de deformación a la plantilla limitando el número de grados de libertad. En [6] se describió un método basado en snakes [7], las cuales tienen la habilidad de resolver detalles finos en los contornos. Sin embargo, los contornos fueron restringidos a un subespacio aprendido del conjunto de entrenamiento. </p>     <p>Los algoritmos genéticos (GA) han sido empleados en la optimización de tareas con espacios de búsqueda muy amplios (en particular, en el procesamiento de imágenes), gracias a su capacidad de búsqueda en paralelo. Por ejemplo, en [8] se utiliza un modelo con seis parámetros variables, para detectar el ventrículo izquierdo en imágenes de ultrasonido del corazón. Un algoritmo genético lleva a cabo la búsqueda a través de la variación de los seis parámetros y evalúa qué tan bien se acopla el modelo a la imagen, mediante una función de evaluación que depende de la intensidad de gris de unos vectores perpendiculares y calculados sobre contorno modelado. </p>     ]]></body>
<body><![CDATA[<p>En [9], se presenta una aplicación para reconocimiento de rostros, el algoritmo genético es utilizado para buscar dentro de todas las posibles subimágenes del cuadro original en la que se quiere detectar un objeto determinado. Por esta razón, los parámetros a codificar corresponden a las posiciones de la esquina superior izquierda e inferior derecha del rectángulo que definirá la subimagen. En la fase de entrenamiento, un conjunto de imágenes previamente segmentadas y escaladas, conteniendo exclusivamente rostros, son entregadas al algoritmo para extraer las características más expresivas (MEF’s) y las características más discriminantes (MDF’s) [10]. Luego, con base en una organización jerárquica de estas características, el algoritmo genético busca cuál subimagen es la que más probable contiene un rostro humano. </p>     <p>Un método similar al anterior es el usado en [11] para la detección y verificación de rostros. En este caso, ya que el objetivo es la verificación, el entrenamiento se hace con varias imágenes del mismo sujeto y se pretende hallar la mayor concordancia de la subimágen con el modelo definido en el entrenamiento.  En [12], en lugar de variar directamente los parámetros que dan la forma a la imagen modelo, se utilizan transformaciones afines [13] para reconocer objetos en dos dimensiones. El algoritmo genético genera contornos a través de estas transformaciones y calcula las distancias entre cada punto del contorno modelado y el punto más cercano a éste en la imagen original, para calcular el error cuadrático medio y optimizar la ubicación de los contornos. </p>     <p>Teniendo en cuenta estos antecedentes, en este trabajo se plantea un método de segmentación y reconocimiento de posturas labiales mediante el uso de una plantilla deformable y un modelo de variación de los labios, los cuales son sintonizados por un algoritmo genético de dos etapas, específicamente, del tipo canónico. Este método de sintonización de los modelos, podría superar los problemas de implementación de las aplicaciones de speechreading, surgidos por el espacio de búsqueda resultante. </p>     <p><b>2. MODELOS Y SINTONIZACIÓN</b></p>     <p><b>2.1 Etapa de segmentación</b></p>     <p>Una plantilla deformable es un modelo matemático que se utiliza para rastrear los movimientos que un objeto específico [14]. Típicamente la plantilla se encuentra descrita por uno o varios polinomios que definen la intensidad de los píxeles en ésta. </p>     <p>Construcción de la plantilla deformable. Inicialmente, es necesario realizar la segmentación manual del conjunto de imágenes de entrenamiento (este caso se usaron  ) para cada vocal. Se construye una superficie promedio como primera aproximación a la plantilla deformable, mediante el submuestreo posterior normalización del tamaño de todas las imágenes (  píxels). Luego se superponen las intensidades en las componentes R, G y B en la forma: </p>     <p>		<img src="/img/revistas/dyna/v74n151/a18eq01.gif" width="143" height="38"></p>     <p>donde   es la imagen promedio,   es el número de imágenes de entrenamiento, y   es el promedio de intensidad de la   imagen. En la <a href="#fig01">Figura 1</a> se observa un ejemplo de las superficies promedio de las imágenes de posturas labiales para todas vocales, además de la boca cerrada.  </p>     <p align="center">   <b><a name="fig01"></a><img src="/img/revistas/dyna/v74n151/a18fig01.gif" width="278" height="177"></b></p>     ]]></body>
<body><![CDATA[<p align="center"><b>Figura 1.</b> Superficies promedio de las posturas labiales.        <br>   <b>Figure 1.</b>  Average surfaces for lip postures.</p>     <p>Seguidamente se realiza la aproximación de cada superficie promedio mediante el respectivo polinomio, que permita la deformación realizando la variación de sus coeficientes, y la cual corresponde a la solución de la ecuación normal [15]: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq02.gif" width="112" height="13"> </p>     <p>La solución exacta, si   es una matriz cuadrada de rango completo, está definida como</p>     <p><img src="/img/revistas/dyna/v74n151/a18eq03.gif" width="121" height="17"></p>     <p>Cuando   no es cuadrada o no se cuenta con una solución exacta, se tiene la solución dada por:    </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq04.gif" width="126" height="23"></p>     <p> Para evitar el cálculo de   se utiliza la aproximación por descomposición en valores singulares:         </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq0506.gif" width="105" height="36"></p>     ]]></body>
<body><![CDATA[<p>donde   y   son matrices ortogonales, por lo tanto sus inversas son iguales a sus transpuestas,   es una matriz diagonal y   es la transpuesta de  , con sus elementos diagonales no nulos invertidos [15].  Teniendo en cuenta la ecuación normal de aproximación para las superficies polinomiales: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq07.gif" width="234" height="92"> </p>     <p>entonces, la notación de   en forma matricial será: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq0809.gif" width="168" height="180"> </p>     <p>De (8), se obtiene la ecuación de la forma  , donde   son los valores de intensidad de la imagen a ajustar. Los resultados concretos obtenidos para ajustar cada imagen promedio a una función de orden   se representan en la <a href="#fig02">Fig. 2</a>. </p>     <p align="center"> <b><a name="fig02"></a><img src="/img/revistas/dyna/v74n151/a18fig02.gif" width="246" height="118"></b></p>     <p align="center"><b>Figura 2.</b> Imagen promedio y plantilla construida       <br>   <b>Figure 2.</b> Average image and constructed template.</p>     <p>Finalmente, los puntos evaluados   e   corresponden a los índices de los píxels de la imagen promedio. Por tanto, la plantilla puede ser deformada calculando la función en intervalos menores a  , si se quiere aumentar el número de píxels en una dirección, y mayores a   si se requiere disminuirlos. En la <a href="#fig03">Figura 3</a> se muestra como se deforma la plantilla en la dirección   o escala   y en   o escala  .  </p>     <p align="center"><b><a name="fig03"></a><img src="/img/revistas/dyna/v74n151/a18fig03.gif" width="192" height="156"></b></p>     ]]></body>
<body><![CDATA[<p align="center"><b>Figura 3.</b> Ejemplos de deformación de la plantilla     <br>   <b>Figure 3.</b>  Template variations examples.</p>     <p> Algoritmo de Segmentación.  Para realizar la segmentación como tal, se construyó una función de error que consta de cuatro variables independientes correspondientes a la posición ( , ) del punto central de la plantilla y las escalas ( ) correspondientes a la dimensión de la plantilla en las direcciones   e   respectivamente: </p>     <p>&nbsp;                                                                        </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq1011.gif" width="271" height="153"></p>     <p>Siendo   y   las filas y las columnas de la imagen a segmentar. En caso contrario,  . A fin de reducir el espacio de búsqueda, de acuerdo a la observación de la base de datos para las imágenes de  , se tuvo en cuenta las siguientes consideraciones, siguiendo la cuales se agregaron condiciones al cálculo de la función de error, de forma que la nueva condición para el cálculo de la función de error es: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq12.gif" width="260" height="101"></p>     <p>La función   está definida como: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq13.gif" width="256" height="43"></p>     <p>Siendo   la imagen original que está siendo comparada con la plantilla deformada  . </p>     ]]></body>
<body><![CDATA[<p>La ecuación 13 depende de cuatro parámetros, dos de posición y dos de escalamiento, los que serán codificados y servirán como entrada al algoritmo genético que se describe en la sección 2.3, con el que se buscará minimizar esta ecuación, ya que cuando 13 sea mínimo, se sospecha de la existencia de un segmento correspondiente a la postura labial. La codificación se realiza transformando los parámetros en decimales a cadenas binarias independientes de   bits, esto por la reducción del espacio de búsqueda hecha en el algoritmo de segmentación. </p>     <p><b>2.2 Etapa de reconocimiento</b></p>     <p>Construcción del modelo de variación de los contornos labiales Sobre las imágenes segmentadas en la etapa anterior, se realiza una normalización automática para eliminar los efectos de rotación, traslación y escala, es decir, se busca que las bocas quedaran horizontales, centradas y con una longitud estándar de comisura a comisura, como se muestra en la <a href="#fig04">Figura 4</a>.</p>     <p align="center"><b><a name="fig04"></a><img src="/img/revistas/dyna/v74n151/a18fig04.gif" width="230" height="84"></b></p>     <p align="center"><b>Figura 4. </b>Imagen original (izquierda) y la imagen preprocesada (derecha)       <br>   <b>Figure 4.</b> Original image (left side) and preprocesed image (right side ).</p>     <p>El sistema de caracterización que se implementó es propuesto en [16] y [17], el cual se basa en la construcción de modelos que tengan las principales formas de variación de la boca, tanto en forma como en la intensidad de la imagen en las cercanías de los contornos labiales. La construcción de estos modelos constituye la fase de entrenamiento del sistema de caracterización. Para construir el modelo de forma de la boca, a cada una de las fotos de entrenamiento del sistema le fueron señalados manualmente   puntos, que describen los contornos exterior e interior de los labios, como se muestra en la <a href="#fig04">Figura 4</a>. </p>     <p>Estos puntos son la referencia para la extracción de los vectores de intensidad alrededor de los contornos labiales. Dichos vectores son radiales al centro de la imagen y de una longitud de   pixels, siendo el pixel número   uno de los puntos previamente señalados, como se muestra en la <a href="#fig04">Figura 4</a>. Los vectores son extraídos de la matriz de tono de la imagen, que corresponde a la primera matriz del sistema HSV, por lo que la imagen se lleva antes a este espacio de color, en lugar del RGB. </p>     <p align="center"> <b><a name="fig05"></a><img src="/img/revistas/dyna/v74n151/a18fig05.gif" width="214" height="300"></b></p>     <p align="center"><b>Figura 5.</b> Modelo de forma de la boca       ]]></body>
<body><![CDATA[<br>   <b>Figure 5. </b>Mouth shape model</p>     <p>El objetivo de construir modelos de variación de los contornos labiales, es restringir el uso de suposiciones heurísticas acerca de las formas legales de variación de la boca, a la hora de realizar la búsqueda en una imagen [17]. </p>     <p>En este caso, para obtener una forma promedio, se señalaron los contornos de un conjunto de entrenamiento representativo, conformado por   imágenes de la postura labial correspondiente a cada una de las vocales: /a/,/e/,/i/,/o/,/u/ y boca cerrada. </p>     <p>La i-ésima forma del conjunto de entrenamiento (i=1...N ) es representada   por el vector , de la forma: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq14.gif" width="232" height="18"> </p>     <p>donde   {x<sub>ij</sub>,y<sub>ij</sub>}son las coordenadas del j-ésimo punto   (ji=1...32 ) correspondiente a la i-ésima   forma. </p>     <p>Teniendo las   formas de entrenamiento, se calcula la forma promedio   y la matriz de covarianza  . </p>     <p>En calidad de características representativas del modelo se obtienen los vectores propios y valores propios de la matriz de covarianza usando análisis de componentes principales (PCA) [18]: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq15.gif" width="111" height="17"> </p>     <p>donde   es una matriz con los   vectores propios correspondientes a los   valores propios más altos y   es un vector con los coeficientes correspondientes a cada eigenvector. La variación de estos coeficientes será la que dé el espacio de búsqueda para el algoritmo genético. Las <a href="#fig15">Figuras 15 y 15</a> muestran las formas producidas por la variación de los dos primeros coeficientes, desde   desviaciones estándar hasta   desviaciones estándar, respectivamente. </p>     ]]></body>
<body><![CDATA[<p align="center"> <b><a name="fig06"></a><img src="/img/revistas/dyna/v74n151/a18fig06.gif" width="226" height="582"></b></p>     <p align="center"><b>Figura 6.</b> Modos de variación del modelo de forma     <br>   <b>Figure 6.</b> Variation modes of the shape model</p>     <p>El modelo completo contiene 6 modos de variación que generan diversos detalles y asimetrías de las formas de variación del conjunto de entrenamiento y serán utilizados como características para la clasificación. </p>     <p>La búsqueda en cada imagen realiza mediante el modelo de las variaciones de intensidad alrededor de los contornos labiales, para lo cual se extraen los vectores de intensidad representados en la <a href="#fig04">Figura 4</a>, siendo   el j-ésimo vector de la i-ésima imagen de entrenamiento, con los cuales se conforma la matriz respectiva: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq16.gif" width="162" height="18"> </p>     <p>Luego se calcula nuevamente la media   y la matriz de covarianza   para representar   las formas de variación de intensidad por: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq17.gif" width="161" height="21"> </p>     <p>siendo   la matriz con los primeros   vectores propios de  , de forma que se tenga el   de varianza acumulada y   es el vector de los coeficientes correspondientes a cada vector propio. </p>     <p><b>2.2.1 Algoritmo de reconocimiento de posturas</b></p>     ]]></body>
<body><![CDATA[<p>El algoritmo genético implementado es el encargado de localizar los contornos labiales dentro de la imagen. Los cromosomas representarán al vector de coeficientes   para formar diferentes posturas labiales utilizando la ecuación (15), en la cual cada uno de los coeficientes puede tomar uno de   valores discretos, desde   desviaciones estándar hasta   desviaciones estándar con incrementos de  , de tal manera que cada uno se representa con   bits. El cromosoma total, tendrá entonces   bits (Ver <a href="#fig07">Figura 7</a> ), lo que genera un espacio de búsqueda de más de dieciséis millones de posibles posturas. La solución de esta tarea de búsqueda sobre espacios tan amplios, genera la necesidad de emplear los algoritmos genéticos. </p>     <p align="center"><b><a name="fig07"></a><img src="/img/revistas/dyna/v74n151/a18fig07.gif" width="231" height="42"></b></p>     <p align="center"><b>Figura 7.</b> Codificación del vector   en un cromosoma     <br>   <b>Figure 7.</b> b vector encodig onto a chromosome</p>     <p> El algoritmo genético va extrayendo los vectores de intensidad de la matriz de rojo de la imagen. Dado que los vectores propios   de la ecuación (17) son ortogonales, el vector de parámetros   puede ser calculado como: </p>     <p>                     <img src="/img/revistas/dyna/v74n151/a18eq18.gif" width="178" height="21"></p>     <p>Teniendo este valor, se puede calcular el error entre la descripción de intensidad de la imagen y la descripción del modelo alineado, de la siguiente forma: </p>     <p><img src="/img/revistas/dyna/v74n151/a18eq19.gif" width="181" height="21"> </p>     <p>El algoritmo genético busca minimizar este error, por lo tanto la función de evaluación será inversamente proporcional: </p>     <p>                              <img src="/img/revistas/dyna/v74n151/a18eq20.gif" width="173" height="32"></p>     ]]></body>
<body><![CDATA[<p>En la sección 2.3 se especifican los parámetros del GA implementado. </p>     <p>Para la clasificación se tomaron los 6 coeficientes del vector   en (15), que son descriptores de la forma del modelo, y los   coeficientes del vector   calculado en (18). </p>     <p>Sobre este conjunto de 38 características, se aplicó la metodología de selección efectiva de características por medio de PCA, KPCA y MANOVA descrita en [19]. </p>     <p>La validación del clasificador se llevó a cabo utilizando validación cruzada. Para este caso, se usó tres subconjutos de validación  =3, o sea, que se dividió la base de datos en grupos de 84 imágenes (28 de cada clase) y se validó 3 veces. El valor de   fue escogido de tal manera que los grupos de validación representaran el   de la cantidad total de imágenes, entrenando así con el   cada vez. </p>     <p>   <b>2.3 El Algoritmo Genético</b></p>     <p>En el presente trabajo se emplea un algoritmo genético de estructura simple (algoritmo canónico), el cual se corre en dos etapas. Primero, se utiliza como población de entrada la codificación de los parámetros de la ecuación 13 para segmentar la imagen, como se describe en la sección 3. Cuando el algoritmo converge, inmediatamente comienza a correr de nuevo, utilizando esta vez la codificación descrita en la sección 2.2.1 para caracterizar la postura labial. </p>     <p>El algoritmo se implementó con los operadores indicados por [20] para un algoritmo genético canónico: </p> <ul>       <li>	Selección con muestreado universal estocástico sin elitismo.</li>       <li>	Recombinación con cruce de un sólo punto.</li>       <li>	Mutación por complementación del bit. </li>     ]]></body>
<body><![CDATA[</ul>     <p>con los parámetros planteados en [21]: </p> <ul>       <li>	Tamaño de la población entre   a   individuos</li>       <li>	Probabilidad de recombinación del 60%</li>       <li>	Probabilidad de mutación del 0.1%</li>     </ul>     <p>Las condiciones de parada se establecieron experimentalmente, llegando a que el algoritmo debe detenerse bajo una de las siguientes condiciones: </p> <ul>       <li>	Si la población tiene más del   de convergencia.</li>       <li> Si el algoritmo supera las   generaciones. </li>     </ul>     ]]></body>
<body><![CDATA[<p><b>3. EXPERIMENTOS Y RESULTADOS </b></p>     <p>La base de datos con que se probó el método de segmentación y reconocimiento de posturas labiales, consta de 252 imágenes de posturas labiales extraídas de una población de personas con edades en el rango de 17 a 25 años. Las imágenes se encuentran divididas en seis clases correspondientes a las 5 vocales del idioma español, además de la boca cerrada en relajación. Las muestras fueron tomadas con resolución de imágenes  ,formato bmp de 24 bits sin compresión.</p>     <p><b>3.1 Segmentación</b></p>     <p>Los resultados concretos de segmentación de posturas labiales de las vocales /a/, /e/, /i/, /o/, /u/ y la boca cerrada se muestran en la <a href="#fig08">Figura 8</a>. Las muestras se clasificaron de la forma en que se muestra en la Tabla. 1, de acuerdo a la imagen que resulta después de aplicada la segmentación.</p>     <p align="center"> <b><a name="fig08"></a><img src="/img/revistas/dyna/v74n151/a18fig08.gif" width="238" height="153"></b></p>     <p align="center"><b>Figura 8.</b> Imágenes segmentadas de todas las vocales y boca   cerrada     <br>   <b>Figure 8.</b> Segmented images for all vowels and closed mouth</p>     <p align="center"> <b><a name="tab01"></a>Tabla 1.</b> Clasificación cualitativa del segmentador.     <br>   <b>Table 1.</b> Qualitative classification</p>     <p align="center"><img src="/img/revistas/dyna/v74n151/a18tab01.gif" width="246" height="160"></p>     ]]></body>
<body><![CDATA[<p>Los parámetros para determinar la correcta segmentación de las imágenes son una valoración subjetiva; con base en información a priori que posee el sujeto evaluador, como por ejemplo el reconocimiento de patrones de posturas labiales en multiples sujetos, posición del área de la boca en el encuadre de la escena y la plantilla de comparación entre otros. Los resultados para cada una de las categorías anteriormente mencionadas se presentan en la Tabla 2. </p>     <p align="center"><b><a name="tab02"></a>Tabla 2.</b>  Resultados del segmentador propuesto       <br>   <b>Table 2.</b> Results of the proposed segmentation.</p>     <p align="center"><img src="/img/revistas/dyna/v74n151/a18tab02.gif" width="246" height="119"></p>     <p>El método de segmentación propuesto mostró un rendimiento de  , haciendo del segmentador por error minimizado mediante algoritmos genéticos un buen método, a pesar de la carga computacional que implica debido a su carácter iterativo, el cual converge en un rango de 50 a 100 generaciones con un tiempo de cálculo de   por generación, haciendo que el tiempo máximo de procesamiento por imagen sea   ( ), que es un tiempo considerablemente alto para un procesador pentium(R) 4 de 2.4 GHz y 512Mb de Ram. </p>     <p><b>3.2 Caracterización</b></p>     <p>La <a href="#fig09">figura 9</a> muestra, algunos de los resultados del sistema de caracterización. </p>     <p align="center"> <b><a name="fig09"></a><img src="/img/revistas/dyna/v74n151/a18fig09.gif" width="241" height="169"></b></p>     <p align="center"><b>Figura 9.</b> Resultados del sistema de caracterización     <br>   <b>Figure 9.</b> Feature extraction results.</p>     ]]></body>
<body><![CDATA[<p> El sistema de caracterización mostró un buen rendimiento, convergiendo en un promedio de 50 generaciones, lo que equivale a un tiempo de aproximadamente 34 segundos. </p>     <p><b>Clasificación</b></p>     <p>Para la clasificación se tomaron los 6 coeficientes del vector   en 15, que son descriptores de la forma del modelo, y los   coeficientes del vector   calculado en 18. En el experimento se obtuvo que para tener un   de varianza acumulada,  . </p>     <p>Sobre este conjunto de 38 características, se aplicó la metodología de selección efectiva de características por medio de PCA, KPCA y MANOVA descrita en [?]. Los resultados de esta clasificación se encuentran en la Tabla 3.</p>     <p align="center"><b><a name="tab03"></a>Tabla 3. </b>Porcentaje de clasificación     <br>   <b>Table 3.</b> Classification rates.</p>     <p align="center"><img src="/img/revistas/dyna/v74n151/a18tab03.gif" width="246" height="57"></p>     <p>Para analizar las causas de error, se construyó la matriz de confusión de clases mostrada en la Tabla 4. Las filas representan la clase verdaderas y las columnas representan la clase reconocida.</p>     <p align="center"><b><a name="tab04"></a>Tabla 4.</b> Matriz de confusión en la clasificación       <br>   <b>Table 4.</b> Confussion matriz</p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/dyna/v74n151/a18tab04.gif" width="270" height="113"></p>     <p> Puede observarse que la mayor confusión de clases se encuentra entre la /o/ y la /u/. Esto se debe a que en muchas ocasiones hay sombra alrededor del contorno interior de la boca, y esta sombra es interpretada por el sistema como parte de la apertura de la boca, caracterizándola más grande de lo que es en realidad. Otros casos en los que se presenta confusión es en las personas con dientes muy grandes, ya que el clasificador reconoce los dientes como un rasgo distintivo de la letra /i/; además se encuentra el caso de la pronunciación exagerada, que puede hacer que el clasificador identifique la apertura de la boca como característica de una /a/, cuando la vocal pronunciada es una /o/ o una /e/.  El desempeño total del sistema se encuentra resumido en la tabla 5.</p>     <p align="center"><b><a name="tab05"></a>Tabla 5. </b>Error total del sistema       <br>   <b>Table 5.</b> Total error of the system</p>     <p align="center"><img src="/img/revistas/dyna/v74n151/a18tab05.gif" width="246" height="46"></p>     <p> Se observa que el porcentaje de error crece debido a que el sistema funciona serialmente, por lo tanto el error de la primera fase se acumula para la segunda.</p>     <p><b>4. CONCLUSIONES</b></p>     <p>Se ha descrito un método de segmentación de posturas labiales basado en un modelo de aproximación polinomial a la imagen promedio. Al combinar este modelo con el algoritmo genético simple, se obtuvo un sistema con un buen desempeño en la ubicación de posturas labiales, teniendo en cuenta que la plantilla de comparación contiene las características de iluminación de la base de datos y la aproximación polinomial(SVD) contiene las características de forma más generales, por lo cual el algoritmo no depende de condiciones de iluminación ni de detalles finos de las imágenes. </p>     <p>La utilización de algoritmos genéticos en la minimización de la función de error mostró ser una herramienta computacional de optimización que lleva a cabo la búsqueda de soluciones en paralelo, lo que los hace muy eficientes en espacios de búsqueda extensos, permitiendo obtener el mínimo de la función de error en un máximo de   generaciones teniendo en cuanta que habían   posibilidades. </p>     <p>Se ha descrito un método de caracterización y clasificación de posturas labiales basado en un modelo de las variaciones de forma de los contornos labiales. Al combinar este modelo con el algoritmo genético canónico [20], se obtuvo un sistema con un buen desempeño en la caracterización y reconocimiento de posturas labiales en imágenes. </p>     ]]></body>
<body><![CDATA[<p>En la clasificación de posturas labiales, no es suficiente con utilizar características de forma, dado que hay posturas que son prácticamente iguales en cuanto a forma y sólo se diferencian por la posición de la lengua. Para solucionar éste inconveniente, es necesario añadir características de intensidad de la imagen. </p>     <p>Debido a la naturaleza serial del proceso, el error se vuelve acumulativo, lo que genera un error total bastante alto. Sin embargo, teniendo en cuenta las 2 etapas por separado, presentan buenos desempeños en sus respectivas tareas. </p>     <p><b>REFERENCIAS</b></p>     <!-- ref --><p>[1] G. Potamianos, C. Neti, G. Iyengar, and E. Helmuth, “Large vocabulary audio-visual speech recognition by machines and human” 2001.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000166&pid=S0012-7353200700010001800001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [2] M. Hennecke, K. Prasad, and D. Stork, “Using deformable templates to infer visual speech dynamics,” 1994.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000167&pid=S0012-7353200700010001800002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [3] A. L. Yuille, P. W. Hallinan, and D. S. Cohen, “Feature extraction from faces using deformable templates,” Int. J. Comput. Vision, vol. 8, no. 2, pp. 99–111, 1992.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000168&pid=S0012-7353200700010001800003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [4] R. Kaucic, B. Dalton, and A. Blake, “Real-time lip tracking for audio-visual speech recognition applications,” in ECCV (2), 1996, pp. 376–387.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000169&pid=S0012-7353200700010001800004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br> [5] R. H. Bartels, J. C. Beatty, K. S. Booth, E. G. Bosch, and P. Jolicoeur, “Experimental comparison of splines using the shape-matching     <br> paradigm,” ACM Trans. Graph., vol. 12, no. 3, pp. 179–208, 1993.     <!-- ref --><br> [6] C. Bregler and S. M. Omohundro, “Surface learning with applications to lipreading,” in Advances in Neural Information Processing Systems, J. D. Cowan, G. Tesauro, and J. Alspector, Eds., vol. 6. Morgan Kaufmann Publishers, Inc., 1994, pp. 43–50.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000172&pid=S0012-7353200700010001800006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [7] M. Kass, A. Witkin, and D. Tersopuolos, “Snakes: Active contour models.” International Journal of Computer Vision, vol. 1, no. 4, p.321–331, 1988.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000173&pid=S0012-7353200700010001800007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [8] A. Hill and C. J. Taylor, “Model-based image interpretation using genetic algorithms,” Image and Vision Computing, vol. 10, no. 5, pp. 295–300, 1992.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000174&pid=S0012-7353200700010001800008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [9] D. L. Swets, B. Punch, and J. Weng, “Genetic algorithms for object recognition in a complex scene,” in ICIP, 1995, pp. 2595–2598.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000175&pid=S0012-7353200700010001800009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [10] Y. Cui, D. L. Swets, and J. J. Weng, “Learning-based hand sign recognition using shoslif-m,” in Proc. International conference on computer vision, 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000176&pid=S0012-7353200700010001800010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [11] G. Bebis, S. Uthiram, and M. Georgiopoulos, “Face detection and verification using genetic search,” International Journal on Artificial Intelligence Tools, vol. 9, no. 2, pp. 225 – 246, 2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000177&pid=S0012-7353200700010001800011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [12] S. J. Louis, G. Bebis, S. Uthiram, and Y. Varol, “Genetic search for object identification,” in Evolutionary Programming VII, V. W. Porto, N. Saravanan, D. Waagen, and A. E. Eiben, Eds. Berlin: Springer, 1998, pp. 199–208.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000178&pid=S0012-7353200700010001800012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [13] G. Bebis, M. Georgiopoulos, N. DaVitoria Lobo, and M. Shah, “Learning affine transformation of the plane for model-based object recognition,” Proceedings of the 13th Intenational Conference on Pattern Recognition, pp. 60–64, 1996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000179&pid=S0012-7353200700010001800013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [14] I. Matthews, T. Cootes, S. Cox, R. Harvey, and J. Bangham, “Lipreading using shape, shading and scale,” 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000180&pid=S0012-7353200700010001800014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [15] H. Gene and F. Charles, “Matrix computations,” in John Hopkins, 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000181&pid=S0012-7353200700010001800015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [16] J. Luettin and N. A. Thacker., “Active shape models for visual speech feature extraction,” Electronic Systems Group Report, University of Sheffield, 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000182&pid=S0012-7353200700010001800016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [17] J. Lüttin and N. A. Thacker, “Speechreading using probabilistic methods,” 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000183&pid=S0012-7353200700010001800017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [18] L. Smith, “A tutorial on principal component analysis,” 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000184&pid=S0012-7353200700010001800018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [19] G. Daza and L. G. Sánchez, “Pca, kpca y manova sobre señales de voz en imágenes de posturas labiales y audio,” Trabajo de grado. Universidad Nacional de Colombia, sede Manizales, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000185&pid=S0012-7353200700010001800019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [20] D. Whitley, “An overview of evolutionary algorithms: practical issues and common pitfalls,” Information and Software Technology, vol. 43, no. 14, pp. 817–831, 2001.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000186&pid=S0012-7353200700010001800020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> [21] M. Mitchell, An Introduction to Genetic Algorithms. Massachusetts Institute of Technology, 1996. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000187&pid=S0012-7353200700010001800021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><p>       ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Potamianos]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Neti]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Iyengar]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Helmuth]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Large vocabulary audio-visual speech recognition by machines and human&#8221;]]></article-title>
<source><![CDATA[]]></source>
<year>2001</year>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hennecke]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Prasad]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Stork]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<source><![CDATA[]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yuille]]></surname>
<given-names><![CDATA[A. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Hallinan]]></surname>
<given-names><![CDATA[P. W.]]></given-names>
</name>
<name>
<surname><![CDATA[Cohen]]></surname>
<given-names><![CDATA[D. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Feature extraction from faces using deformable templates,&#8221;]]></article-title>
<source><![CDATA[Int. J. Comput. Vision]]></source>
<year>1992</year>
<volume>8</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>99-111</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kaucic]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Dalton]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Blake]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Real-time lip tracking for audio-visual speech recognition applications,&#8221;]]></article-title>
<source><![CDATA[ECCV]]></source>
<year>1996</year>
<numero>2</numero>
<issue>2</issue>
<page-range>376-387</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bartels]]></surname>
<given-names><![CDATA[R. H]]></given-names>
</name>
<name>
<surname><![CDATA[Beatty]]></surname>
<given-names><![CDATA[J. C.]]></given-names>
</name>
<name>
<surname><![CDATA[Booth]]></surname>
<given-names><![CDATA[K. S.]]></given-names>
</name>
<name>
<surname><![CDATA[Bosch]]></surname>
<given-names><![CDATA[E. G]]></given-names>
</name>
<name>
<surname><![CDATA[Jolicoeur]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Experimental comparison of splines using the shape-matching paradigm,&#8221;]]></article-title>
<source><![CDATA[ACM Trans. Graph]]></source>
<year>1993</year>
<volume>12</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>179-208</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bregler]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Omohundro]]></surname>
<given-names><![CDATA[S. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Surface learning with applications to lipreading,&#8221;]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Cowan]]></surname>
<given-names><![CDATA[J. D.]]></given-names>
</name>
<name>
<surname><![CDATA[Tesauro]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Alspector]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Advances in Neural Information Processing Systems]]></source>
<year>1994</year>
<volume>6</volume>
<page-range>43-50</page-range><publisher-name><![CDATA[Morgan Kaufmann Publishers, Inc.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kass]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Witkin]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Tersopuolos]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Snakes: Active contour models.&#8221;]]></article-title>
<source><![CDATA[International Journal of Computer Vision]]></source>
<year>1988</year>
<volume>1</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>321-331</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hill]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[C. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Model-based image interpretation using genetic algorithms,&#8221;]]></article-title>
<source><![CDATA[Image and Vision Computing,]]></source>
<year>1992</year>
<volume>10</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>295-300</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Swets]]></surname>
<given-names><![CDATA[D. L]]></given-names>
</name>
<name>
<surname><![CDATA[Punch]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Weng]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Genetic algorithms for object recognition in a complex scene,&#8221;]]></article-title>
<source><![CDATA[ICIP]]></source>
<year>1995</year>
<page-range>2595-2598</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cui]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[Swets]]></surname>
<given-names><![CDATA[D. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Weng]]></surname>
<given-names><![CDATA[J. J.]]></given-names>
</name>
</person-group>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[ Proc. International conference on computer vision]]></conf-name>
<conf-date>1995</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bebis]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Uthiram]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Georgiopoulos]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Face detection and verification using genetic search,&#8221;]]></article-title>
<source><![CDATA[International Journal on Artificial Intelligence Tools]]></source>
<year>2000</year>
<volume>9</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>225 - 246</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Louis]]></surname>
<given-names><![CDATA[S. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Bebis]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Uthiram]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Varol]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Genetic search for object identification,&#8221;]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Porto]]></surname>
<given-names><![CDATA[V. W.]]></given-names>
</name>
<name>
<surname><![CDATA[Saravanan]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Waagen]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Eiben]]></surname>
<given-names><![CDATA[A. E.]]></given-names>
</name>
</person-group>
<source><![CDATA[]]></source>
<year>1998</year>
<page-range>199-208</page-range><publisher-loc><![CDATA[Berlin ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bebis]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Georgiopoulos]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[DaVitoria Lobo]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Shah]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Learning affine transformation of the plane for model-based object recognition,&#8221;]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[ Proceedings of the 13th Intenational Conference on Pattern Recognition]]></conf-name>
<conf-date>1996</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Matthews]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Cootes]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Cox]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Harvey]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Bangham]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gene]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Charles]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;Matrix computations,&#8221;]]></article-title>
<source><![CDATA[]]></source>
<year>1997</year>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Luettin]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Thacker]]></surname>
<given-names><![CDATA[N. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[&#8220;Active shape models for visual speech feature extraction,&#8221;]]></source>
<year>1995</year>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lüttin]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Thacker]]></surname>
<given-names><![CDATA[N. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[&#8220;Speechreading using probabilistic methods,&#8221;]]></source>
<year>1997</year>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Smith]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;A tutorial on principal component analysis,&#8221;]]></article-title>
<source><![CDATA[]]></source>
<year>2002</year>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Daza]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Sánchez]]></surname>
<given-names><![CDATA[L. G]]></given-names>
</name>
</person-group>
<source><![CDATA[Pca, kpca y manova sobre señales de voz en imágenes de posturas labiales y audio,&#8221;]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Whitley]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[&#8220;An overview of evolutionary algorithms: practical issues and common pitfalls,&#8221;]]></article-title>
<source><![CDATA[Information and Software Technology]]></source>
<year>2001</year>
<volume>43</volume>
<numero>14</numero>
<issue>14</issue>
<page-range>817-831</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mitchell]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[An Introduction to Genetic Algorithms]]></source>
<year>1996</year>
<publisher-name><![CDATA[Massachusetts Institute of Technology]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
