<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0012-7353</journal-id>
<journal-title><![CDATA[DYNA]]></journal-title>
<abbrev-journal-title><![CDATA[Dyna rev.fac.nac.minas]]></abbrev-journal-title>
<issn>0012-7353</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional de Colombia]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0012-73532006000300016</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[EXTRACCIÓN Y CLASIFICACIÓN DE POSTURAS LABIALES EN NIÑOS ENTRE 5 Y 10 AÑOS DE LA CIUDAD DE MANIZALES]]></article-title>
<article-title xml:lang="en"><![CDATA[LIP POSTURES EXTRACTION AND CLASSIFICATION FOR 5 TO 10 YEAR OLD CHILDREN FROM MANIZALES CITY]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[SALAZAR]]></surname>
<given-names><![CDATA[AUGUSTO]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[PRIETO]]></surname>
<given-names><![CDATA[FLAVIO]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia-Manizales GTA Percepción y Control Inteligente ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Universidad Nacional de Colombia, Sede Manizales Facultad de Ingeniería y Arquitectura ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>11</month>
<year>2006</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>11</month>
<year>2006</year>
</pub-date>
<volume>73</volume>
<numero>150</numero>
<fpage>175</fpage>
<lpage>188</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0012-73532006000300016&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0012-73532006000300016&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0012-73532006000300016&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Se presentan los diferentes algoritmos y procedimientos utilizados en el desarrollo de un sistema de extracción y clasificación automática de posturas labiales. El sistema se diseñó con el fin de acompañar a los niños con labio y/o paladar hendido corregido, en el proceso de recuperación. Para la detección facial, se trabajan técnicas basadas en el espacio de color YCbCr y análisis de conectividad. La detección del contorno de los labios se realiza mediante técnicas de proyecciones, análisis de color (espacio de color HSV y Exclusión de Rojo) y la información de bordes del operador SUSAN. La extracción de la información discriminante se hace por diferentes tipos de análisis estadístico a partir de la región descrita por el contorno. La clasificación de las posturas se realiza empleando diferentes tipos de clasificadores.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In this work, different algorithms and procedures used in the development of a system for the automatic extraction and classification of the lips postures, are presented. System was designed with the purpose of help to the children with lip and cleft palate in the recovery process after reconstruction surgery. For facial detection, techniques based on the YCbCr color space together with connectivity analysis, are used. In order to get a close model of the lip contour for features extraction, projection techniques, color analysis (HSV and red exclusion) and SUSAN edge operator are used. For determining discriminant characteristics from the region described by the contour, different types of statistical analysis, are used. Classification of lips postures is made using different classifiers.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Contorno]]></kwd>
<kwd lng="es"><![CDATA[Labios]]></kwd>
<kwd lng="es"><![CDATA[Labio paladar hendido]]></kwd>
<kwd lng="es"><![CDATA[Detección]]></kwd>
<kwd lng="es"><![CDATA[Extracción]]></kwd>
<kwd lng="es"><![CDATA[Identificación]]></kwd>
<kwd lng="es"><![CDATA[Automática]]></kwd>
<kwd lng="es"><![CDATA[Dimensionalidad]]></kwd>
<kwd lng="es"><![CDATA[Análisis estadístico]]></kwd>
<kwd lng="es"><![CDATA[Clasificadores]]></kwd>
<kwd lng="en"><![CDATA[Contour]]></kwd>
<kwd lng="en"><![CDATA[Lips]]></kwd>
<kwd lng="en"><![CDATA[Cleft lip and palate]]></kwd>
<kwd lng="en"><![CDATA[Detection]]></kwd>
<kwd lng="en"><![CDATA[Extraction]]></kwd>
<kwd lng="en"><![CDATA[Identification]]></kwd>
<kwd lng="en"><![CDATA[Automatic]]></kwd>
<kwd lng="en"><![CDATA[Dimensionality]]></kwd>
<kwd lng="en"><![CDATA[Statistical analysis]]></kwd>
<kwd lng="en"><![CDATA[Classifiers]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="center"><b>EXTRACCIÓN Y CLASIFICACIÓN DE POSTURAS LABIALES EN NIÑOS ENTRE 5 Y 10 AÑOS DE LA CIUDAD DE MANIZALES</b></p>     <p align="center"><b>LIP POSTURES EXTRACTION AND CLASSIFICATION FOR 5 TO 10 YEAR OLD CHILDREN FROM MANIZALES CITY</b></p>     <p align="center"><b>AUGUSTO SALAZAR   </b>    <br>   <i>GTA Percepción y Control Inteligente, Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia-Manizales, <a href="mailto:aesalazarj@unal.edu.co">aesalazarj@unal.edu.co</a></i></p>     <p align="center">   <b>FLAVIO PRIETO   </b>    <br>   <i> Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Sede Manizales, <a href="mailto:faprietoo@unal.edu.co">faprietoo@unal.edu.co</a></i></p>     <p align="center">   <b>Recibido para revisar 2 de Septiembre de 2005, aceptado 13 de Marzo de 2006, versión final 20 de Abril de 2006.</b></p>     <p><b>RESUMEN: </b>Se presentan los diferentes algoritmos y procedimientos utilizados en el desarrollo de un sistema de extracción y clasificación automática de posturas labiales. El sistema se diseñó con el fin de acompañar a los niños con labio y/o paladar hendido corregido, en el proceso de recuperación. Para la detección facial, se trabajan técnicas basadas en el espacio de color YC<sub>b</sub>C<sub>r</sub> y análisis de conectividad. La detección del contorno de los labios se realiza mediante técnicas de proyecciones, análisis de color (espacio de color HSV y Exclusión de Rojo) y la información de bordes del operador SUSAN. La extracción de la información discriminante se hace por diferentes tipos de análisis estadístico a partir de la región descrita por el contorno. La clasificación de las posturas se realiza empleando diferentes tipos de clasificadores.</p>     <p><b>PALABRAS CLAVE:</b> Contorno, Labios, Labio paladar hendido, Detección, Extracción, Identificación, Automática, Dimensionalidad, Análisis estadístico, Clasificadores.</p>     <p><b>ABSTRACT: </b>In this work, different algorithms and procedures used in the development of a system for the automatic extraction and classification of the lips postures, are presented. System was designed with the purpose of help to the children with lip and cleft palate in the recovery process after reconstruction surgery. For facial detection, techniques based on the YC<sub>b</sub>C<sub>r</sub> color space together with connectivity analysis, are used. In order to get a close model of the lip contour for features extraction, projection techniques, color analysis (HSV and red exclusion) and SUSAN edge operator are used. For determining discriminant characteristics from the region described by the contour, different types of statistical analysis, are used. Classification of lips postures is made using different classifiers.</p>     ]]></body>
<body><![CDATA[<p><b>KEYWORDS:</b> Contour, Lips, Cleft lip and palate, Detection, Extraction, Identification, Automatic, Dimensionality, Statistical analysis, Classifiers. </p>     <p>     <b>1.	INTRODUCCIÓN</b></p>     <p>El procesamiento de imágenes faciales es una de las áreas de mayor desarrollo dentro de los sistemas de visión artificial. Tiene aplicaciones en áreas como seguridad, seguimiento, interfaces hombre-máquina, medicina, entre otras. Una de las aplicaciones médicas es la antropometría facial </p>     <p>que tiene como objetivo computar las medidas características del rostro. Para el caso de este trabajo se hace énfasis en el área de la boca, específicamente en el contorno labial. </p>     <p>Varias aproximaciones han sido propuestas en el campo de la detección del contorno de los labios. Algunas de ellas con base en el análisis de niveles de gris [1], análisis de color, modelos de plantillas basados en contornos dinámicos, modelos de forma activa [2], plantillas deformables [3], entre otros. En [4] se presenta un sistema para segmentación y extracción de características orientado al  reconocimiento del habla, el problema es que requiere de un hardware específico compuesto por una cámara especial montada sobre el rostro del sujeto, lo que representa una gran desventaja frente a dispositivos donde no se hace ningún contacto con el sujeto. </p>     <p>Este informe muestra el desarrollo de un sistema de extracción y clasificación automática de posturas labiales que funciona bajo condiciones de no invasividad, es decir, no requiere colocar ningún dispositivo sobre el sujeto que se quiera analizar. El proceso está dividido en dos partes: detección automática del contorno exterior de los labios (DACEL) y clasificación automática de posturas labiales.</p>     <p>El proceso de DACEL esta compuesto de varias etapas. La primera consiste en ubicar el sujeto dentro de la imagen para lo que se utiliza un modelado del tono de la piel basado en la información de la transformación al espacio de color YC<sub>b</sub>C<sub>r</sub> [5]. La segunda etapa se enfoca en ubicar la posición de la boca, los cuál se hace mediante el realce del tono de los labios [3] y análisis de conectividad [6]. Por último, se detecta el contorno exterior haciendo una preidentificación de la región de análisis para que la búsqueda se enfoque a ciertas regiones de la boca; el procedimiento de detección del contorno se basa en técnicas de proyecciones, análisis de color  comparación entre transformación HSV y exclusión de rojo [7]) y análisis de distribución espacial de los píxeles de la imagen de bordes SUSAN [8].</p>     <p>Para la clasificación automática de las posturas labiales se realiza una preselección de la información mediante: análisis estadístico del espacio de características en clasificación múltiple [9] y análisis discriminante de Fisher [10]. El proceso de clasificación se lleva acabo mediante la comparación de los resultados de varios tipos de clasificadores: lineal [11], Bayesiano [11], máquinas de vectores de soporte [12] y redes neuronales [13].</p>     <p>El sistema es de mucha utilidad al evaluar la evolución de la cicatrización de los labios de los niños con labio y/o paladar hendido corregido (LPHC). La evaluación se hace mediante la comparación de: los registros del paciente antes y después de las intervenciones quirúrgicas y los patrones de niños que no presentan ninguna alteración en la región de la boca. Por lo tanto, los algoritmos fueron probados sobre una base de datos representativa de la población infantil (entre 5 y 10 años) de Manizales [14].</p>     <p><b>2.	MARCO EXPERIMENTAL </b></p>     ]]></body>
<body><![CDATA[<p>Para el desarrollo del sistema de extracción y clasificación de posturas labiales propuesto en este trabajo, se utiliza una parte de la base de datos de imágenes faciales recogida para el estudio antropométrico descrito en [14], el cual fue dirigido a la población de niños y niñas entre 5 y 10 años de la ciudad de Manizales, específicamente todos aquellos inscritos en instituciones oficiales, no oficiales, rurales o urbanas, bajo el supuesto de una cobertura en educación total en todos los conjuntos poblacionales de la ciudad de Manizales.</p>     <p>La información sobre la población objetivo proviene de las bases de datos de la Secretaria de Educación de la ciudad de Manizales, cuyo control esta ejercido a través de los formularios C100 y C600 establecidos por el DANE, en los cuales cada institución, debe entregar los datos precisos de su infraestructura y población (estudiantes matriculados y profesores), respectivamente.</p>     <p>La muestra poblacional utilizada fue de 660 sujetos (mitad niños, mitad niñas) a los cuales se les tomaron dos fotos pronunciando cada uno de los fonemas vocales, resultando un total de 6600 imágenes (1320/fonema). La geometría de adquisición (<a href="#fig01">Figura1</a>) determina que en la escena, solo aparezca un sujeto en posición frontal, pronunciando un fonema vocal. Las imágenes son a color y poseen una dimensión de 2560 x 1920 píxeles y están almacenadas en formato JPEG.</p>     <p><a name="fig01"></a><img src="/img/revistas/dyna/v73n150/a16fig01.gif" border="0"></p>     <p><b>Figura 1.</b> Escena de adquisición.    <br>   <b>Figure 1.</b> Acquisition scene.</p>     <p><b>3.	TÉCNICAS DE ANÁLISIS </b></p>     <p>Con el fin de disminuir el costo computacional, el análisis de las imágenes se hace mediante técnicas de bajo nivel [15], haciendo uso de métodos, tales como, el análisis de imágenes en escala de grises [1], la extracción de bordes horizontales [3] y los bordes obtenidos con el operador SUSAN [8]. </p>     <p>   <b>3.1	Segmentación </b></p>     <p> La identificación del área de la imagen en la que se encuentra el sujeto, se realiza mediante el detector del tono de piel (DTP) propuesto en [5]. Para la extracción de características en el área de la boca, se comparan dos técnicas: </p>     ]]></body>
<body><![CDATA[<p>   <b>3.1.1	Exclusión de rojo </b></p>     <p> Debido a que la región de los labios es predominantemente roja, se resalta el contraste con las otras componentes para lograr una exclusión de rojo. Los valores de verde y azul son combinados como se indica en la Ecuación 1 [7].</p>     <p><img src="/img/revistas/dyna/v73n150/a16eq01.gif" width="189" height="15"> </p>     <p>En [7] el umbral <font face="Symbol">b</font> toma un valor fijo, alternativamente,   en este trabajo, el valor <font face="Symbol">b</font> se determina promediando el máximo y el mínimo   de la fila donde la suma de los valores de gris es mínima. </p>     <p>   <b>3.1.2	Filtrado de tono </b></p>     <p> Esta técnica utiliza la información del tono la transformación HSV (tono, saturación y valor).</p>     <p>  Este método se centra en resaltar un valor de tono definido h<sub>0</sub> que en este caso corresponde al tono de los labios, para esto se utiliza el filtro que se define en la Ecuación 2 [3].</p>     <p><img src="/img/revistas/dyna/v73n150/a16eq02.gif" width="228" height="62"> </p>     <p>Donde <i>h</i> representa el valor del tono y <i>w</i> controla la distancia en la que el valor del tono cae alrededor de cero.</p>     <p><b>4.	LOCALIZACIÓN DE LA BOCA</b></p>     ]]></body>
<body><![CDATA[<p>La tarea del reconocimiento automático de posturas labiales, comienza con la detección del sujeto dentro de la escena, posteriormente, se deben encontrar las coordenadas que determinan el área de la boca. Una vez definida la región de interés (imagen boca), se procede a hacer la extracción de las características que serán posteriormente analizadas. </p>     <p>   <b>4.1	Detección del Sujeto en la Imagen</b></p>     <p>Al tener la certeza de que solo existe un sujeto en la escena, se debe definir con precisión en que lugar de la imagen se encuentra. Para esto, se utiliza el DTP [5]. Las etapas más relevantes del proceso son:</p> <ol>       <li>	Escalar la imagen para disminuir el costo computacional. Se trabaja     con la imagen reducida al veinte por ciento (20%) de sus dimensiones originales. </li>       <li>	Segmentar la imagen utilizando el DTP (<a href="#fig02">Figura 2(b)</a>). </li>       <li>	Separar las regiones obtenidas en la segmentación, mediante análisis     de conectividad (<a href="#fig02">Figura 2(c)</a>) [6]. </li>       <li>	Agrupar las regiones que componen el conjunto facial (CF) del sujeto     (<a href="#fig02">Figura 2(d)</a>).</li>     </ol>     <p><a name="fig02"></a><img src="/img/revistas/dyna/v73n150/a16fig02.gif" border="0"></p>     <p><b>Figura 2.</b> Ubicación del sujeto.    ]]></body>
<body><![CDATA[<br>   <b>Figure 2.</b> Finding the face.</p>     <p>   <b>4.2	Detección de la región de la boca</b></p>     <p>Una vez se tiene definida la porción de la imagen que contiene al sujeto, se procede a determinar la región donde se halla la boca. El procedimiento de detección por análisis de regiones predominantes (DARP) se desarrolló para este trabajo.</p>     <p><b>Método DARP</b></p>     <p> La detección de la región de la boca mediante de esta técnica consiste:</p> <ol>       <li>	El espacio de búsqueda se reduce a los píxeles que pertenecen al CF     (<a href="#fig16">Figura 16(a)</a>).</li>       <li>	Basándose en la altura del CF, recortar la tercera parte superior (<a href="#fig16">Figura     16(b)</a>). </li>       <li>	Erosionar [16] la imagen (Figura 16(c)) para eliminar alguna influencia       del fondo que pudo haber quedado luego de la segmentación. </li>       <li>	Recuperar la información de color, pero solamente en las coordenadas     del CF (<a href="#fig16">Figura 16(d)</a>). </li>       <li>	Transformar la imagen a color al espacio HSV y filtrar la componente     de tono, utilizando la Ecuación. 2 (<a href="#fig03">Figura 3(e)</a>). </li>       ]]></body>
<body><![CDATA[<li>	Umbralizar la componente de tono filtrada, de tal manera que en la     imagen binaria resultante, se resaltan los píxeles candidatos para la región de la boca de los demás     componentes de la imagen (<a href="#fig03">Figura 3(f)</a>). </li>       <li>	Mediante análisis de conectividad, encontrar la región más predominante,     que para este caso corresponde a la boca (<a href="#fig03">Figura 3(g)</a>).</li>     </ol>     <p><a name="fig03"></a><img src="/img/revistas/dyna/v73n150/a16fig03.gif" border="0"></p>     <p><b>Figura 3.</b> Ubicación de la boca.    <br>   <b>Figure 3.</b> Finding the mouth.</p>     <p>Sobre la imagen de la boca, se hará la extracción y el análisis de las características, con las que se intentará identificar el fonema vocal.</p>     <p><b>5.	EXTRACCIÓN DE CARACTERÍSTICAS VISUALES</b></p>     <p>Existe un conjunto de características visuales, que describen de manera muy aproximada la postura labial para un fonema vocal específico [17].  Debido a que el diagnóstico se hace de forma no invasiva, características tales como la posición del velo del paladar o de la lengua son difíciles de  determinar, por lo tanto, se desarrolló un sistema basado en la extracción y análisis del contorno exterior de los labios.</p>     <p><b>5.1 	Aproximación del contorno exterior de los labios</b></p>     ]]></body>
<body><![CDATA[<p>La aproximación del contorno, se basa en la detección de ocho puntos que en conjunto, forman un polígono que describe de manera aproximada la frontera externa de los labios. El proceso comienza con la detección de dos puntos llamados vértices (puntos amarillos <a href="#fig04">Figura 4(a)</a>), posteriormente, se toman las coordenadas de éstos como punto de partida para la obtención de los demás puntos que forman el contorno exterior de los labios (puntos azules <a href="#fig04">Figura 4(a)</a>). </p>     <p>   <a name="fig04"></a><img src="/img/revistas/dyna/v73n150/a16fig04.gif" border="0"></p>     <p><b>Figura 4. </b>Descripción del modelo del contorno exterior de los labios.    <br>     <b>Figure 4. </b>Description of the external lips contour model.</p>     <p>Una vez encontrados los puntos, se trazan líneas que definen el modelo utilizado para la recopilación de las características   (<a href="#fig04">Figura 4(b)</a>).</p>     <p><b>5.2	Extracción de los vértices</b></p>     <p>Los puntos donde se encuentran la frontera externa superior e inferior de los labios, son llamados vértices. La extracción de estos se realiza utilizando dos alternativas: el método del gradiente vertical (GV) propuesto en [3] y el método de reducción del espacio de búsqueda a partir de la segmentación (REBPS), este último desarrollado para este trabajo. Se aclara, que los umbrales de trabajo se determinan empíricamente, basándose en resultados obtenidos en pruebas de segmentación.</p>     <p><b>Método REBPS</b></p>     <p> Este método aprovecha los resultados de la segmentación, para tratar de minimizar el error en la búsqueda. Se trabaja sobre la imagen en escala de grises.</p>     <p><a name="fig05"></a><img src="/img/revistas/dyna/v73n150/a16fig05.gif" border="0"></p>     ]]></body>
<body><![CDATA[<p><b>Figura 5.</b> Detección de los vértices de la boca.    <br>   <b>Figure 5.</b> Mouth vertex detection. La detección de los vértices por medio de esta técnica consiste:</p> <ol>       <li>	Transformar la imagen a color (<a href="#fig05">Figura 5(a)</a>) al espacio HSV y filtrar     la componente H utilizando la Ecuación.2 (<a href="#fig05">Figura 5(b)</a>).    </li>       <li>	Convertir la imagen en escala de grises a una imagen binaria (<a href="#fig05">Figura       5(c)</a>). El umbral utilizado es de 240/255. </li>       <li>	Hacer análisis de la distribución espacial de los píxeles en blanco, para obtener la media y la desviación estándar     horizontal. </li>       <li>	Definir el espacio de búsqueda como las bandas ubicadas a 1.5 y 2.8 veces la desviación estándar,     a izquierda y derecha de la media (<a href="#fig05">Figura 5(d)</a>). </li>       <li>	Dilatar [16] la imagen para aumentar el espacio de búsqueda (<a href="#fig05">Figura     5(e)</a>). </li>       <li>	Pasar la imagen original a escala de grises y dejar solamente la información     de la ventana definida en el paso anterior (<a href="#fig05">Figura 5(f)</a>). </li>       <li>	Hallar los bordes utilizando el operador SUSAN [8] (<a href="#fig05">Figura   5(g)</a>). </li>       <li>	Determinar la posición vertical de los vértices calculando la media de la distribución de los píxeles     en cada una de la bandas de la imagen SUSAN. </li>       ]]></body>
<body><![CDATA[<li>	Por último, la posición horizontal de los vértices se toma de la posición de los píxeles que estén más     al extremo de cada una de las bandas (<a href="#fig05">Figura 5(h)</a>).</li>     </ol>     <p><b>5.3	Detección de los puntos del contorno</b></p>     <p>Para la ubicación de los puntos del contorno se utiliza la imagen de tono filtrada o la imagen de exclusión de rojo. El proceso de extracción de los puntos se realiza de acuerdo a lo presentado en [3], de la siguiente manera:</p> <ol>       <li>	Se define la región de búsqueda como la banda ubicada en el centro de la     distancia entre los vértices (10 columnas a la izquierda y 10 a la derecha)     (<a href="#fig06">Figura 6</a>).</li>       <li>	Se hace la suma de los valores de intensidad de cada fila, obteniéndose una     distribución P[r].</li>       <li>	Se calcula P[r]-&lt;P[r]&gt; (&lt;P[r]&gt;  equivale a la media de P[r]), obteniendo       P[r]       (<a href="#fig07">Figuras 7(a)</a> y <a href="#fig07">7(b)</a>). </li>       <li>	La posición vertical de los puntos se determina como el ancho MW que     se muestra la <a href="#fig07">Figura 7</a>.</li>     </ol>     <p><a name="fig06"></a><img src="/img/revistas/dyna/v73n150/a16fig06.gif" border="0"></p>     ]]></body>
<body><![CDATA[<p><b>Figura 6. </b>Región de búsqueda de los puntos del contorno.    <br>   <b>Figure 6.</b> Contour points search region.</p>     <p><a name="fig07"></a><img src="/img/revistas/dyna/v73n150/a16fig07.gif" border="0"></p>     <p><b>Figura 7.</b> Distribución P[r].    <br>     <b>Figure 7.</b> Distribution P[r ].</p>     <p>La extracción de los otros cuatro puntos se efectúa ubicando la banda de búsqueda a un cuarto y a tres cuartos de la distancia entre vértices.</p>     <p><b>6.	EVALUACIÓN DE CARACTERÍSTICAS</b></p>     <p><b>6.1	Características a evaluar</b></p>     <p>Con la información de los contornos extraídos, se calculan una serie de parámetros conocidos como descriptores por regiones. La evaluación de las características se hace a un conjunto de descriptores variantes e invariantes a traslación, rotación y escalado [16].</p>     <p>La <a href="#fig08">Figura 8</a> exhibe las tres imágenes utilizadas para calcular los descriptores. El espacio sobre el cual se realiza el análisis está definido por el contorno y la región encerrada por éste. Los descriptores se calculan en base a función f(x,y), la cuál, se define como la distancia del centro de masa de la región, a cada uno de los píxeles del contorno. </p>     ]]></body>
<body><![CDATA[<p>   <a name="fig08"></a><img src="/img/revistas/dyna/v73n150/a16fig08.gif" border="0"></p>     <p><b>Figura 8.</b> Regiones para el análisis.    <br>     <b>Figure 8.</b> Regions to be analyzed.</p>     <p>Para tener una mejor definición del perímetro, se debe tener en cuenta que los píxeles   de contorno sean vecinos a cuatro [16].</p>     <p>La <a href="#tab01">Tabla 1</a> muestra el conjunto de características sometidas a evaluación.   d representa la densidad de la región, <i>m<sub>pq</sub></i> son los momentos bidimensionales   de orden <i>pq</i> y <font face="Symbol"><i>f</i></font><i><sub>n</sub></i> son   los n momentos invariantes [16]. Además, <font face="Symbol"><i>m</i></font><i><sub>f</sub></i>  y <font face="Symbol"><i>s</i></font><i><sub>f</sub></i> corresponden   a la media y la desviación estándar de <i>f(x, y)</i>.</p>     <p><b><a name="tab01"></a>Tabla 1.</b> Conjunto de características.    <br>   <b>Table 1.</b> Feature set.</p>     <p><img src="/img/revistas/dyna/v73n150/a16tab01.gif" border="0"></p>     <p>Las características son calculadas para cada una de las tres regiones de análisis, lo que genera un total de 57 características por postura. </p>     <p><b>6.2	Selección efectiva de características</b></p>     ]]></body>
<body><![CDATA[<p>La selección de los rasgos discriminantes, constituye el aspecto fundamental en un sistema de reconocimiento de patrones. Las propiedades que deben cumplir las características para su selección son las siguientes:</p> <ul>       <li>	Capacidad discriminante: es decir, que separen lo más nítidamente posible     las clases existentes.</li>       <li>	Confiabilidad: esto es, los objetos de una misma clase deberán presentar la menor dispersión     posible.</li>       <li>	Ausencia de correlación: es decir, evitar en lo posible la utilización de características     que dependan fuertemente entre si.</li>     </ul>     <p>Por lo anterior, el proceso de entrenamiento no se debe realizar, mientras no se disminuya al máximo la redundancia en cada una de las características. Para dicha eliminación, se implementaron dos técnicas que son descritas a continuación.</p>     <p><b>6.2.1	Análisis estadístico del espacio de características en clasificación múltiple (AEECCM).</b></p>     <p> Esta metodología tiene como objetivo encontrar un conjunto de características que evaluadas en grupo generen una mayor discriminancia entre clases, permitiendo la adecuada clasificación automática, y teniendo como criterios la menor probabilidad de error de clasificación. Lo cual puede verse también como la selección adecuada de características, altamente discriminantes y con baja redundancia de información [18].</p>     <p>La metodología en consideración conlleva la aplicación de los siguientes pasos descritos a través de la <a href="#fig09">Figura 9</a> [9].</p>     <p><a name="fig09"></a><img src="/img/revistas/dyna/v73n150/a16fig09.gif"></p>     ]]></body>
<body><![CDATA[<p><b>Figura 9.</b> Diagrama de flujo AEECCM.    <br>   <b>Figure 9.</b> AEECCM flow-diagram.</p>     <p><b>6.2.2	Análisis discriminante de Fisher</b></p>     <p>El objetivo del análisis consiste en encontrar una función que retorne valores escalares que permitan una buena discriminación entre diferentes clases de los datos de entrada. Para realizar este análisis se cuenta con:</p>     <p><i>1. Índices de Fisher: </i>estos índices se calculan de la siguiente manera:</p>     <p><img src="/img/revistas/dyna/v73n150/a16eq03.gif" width="207" height="46"> </p>     <p>donde, <i>ij</i> es la combinatoria de clases; <i>m<sub>i</sub></i> , <i>m<sub>j</sub></i> son   las medias y <font face="Symbol"><i>s</i></font><i><sub>i</sub><sup>2</sup></i>, <font face="Symbol"><i>s</i></font><i><sub>j<sup>2</sup></sub></i> son las varianzas   de las clases <i>i</i> y <i>j</i> correspondientes. Este proceso se realiza para cada característica   y se promedia, obteniéndose un índice de Fisher particular. Entre más alto   el índice, más discriminante la característica [10]. </p>     <p><i>2.	Análisis Multivariado de Discriminantes de Fisher (AMDF): </i>este análisis agrupa patrones de la misma clase y separa patrones de diferentes clases. Los patrones se proyectan de un espacio N-dimensional a un espacio C-1 dimensional, donde C es el número de clases de patrones. Por ejemplo, considérense dos conjuntos de puntos en un espacio bidimensional que se proyectan en una sola línea. Dependiendo de la dirección de la línea, los puntos se pueden mezclar o separar. Este análisis encuentra la línea que mejor separa los puntos [10].</p>     <p><b>7.	CLASIFICACIÓN</b></p>     <p><b>7.1	Clasificadores implementados</b></p>     ]]></body>
<body><![CDATA[<p>Las metodologías de selección expuestas, crean conjuntos de características discriminantes. Por tal motivo, con el fin de determinar cuál es la mejor alternativa, para el caso tratado en este trabajo, se construyen y evalúan una serie de clasificadores:</p> <ol>       <li>	Lineales [11].</li>       <li>	Bayesianos [11]. </li>       <li>	Máquinas de Vectores de Soporte [12].</li>       <li> 	Redes Neuronales [13].</li>     </ol>     <p>Se debe aclarar que los clasificadores evalúan los diferentes conjuntos de características, producto de la selección antes mencionada.</p>     <p>   <b>7.2	Evaluación de los clasificadores</b></p>     <p><b>7.2.1	Validación</b></p>     <p>La utilidad de los clasificadores, se evaluó midiendo el porcentaje de observaciones que fueron clasificadas correctamente, generando así, una estimación de la probabilidad de casos correctamente clasificados. Se utilizan tres métodos para estimar dicha probabilidad [19]:</p> <ul>       ]]></body>
<body><![CDATA[<li> Prueba de muestras independientes.</li>       <li>	Validación cruzada con k-particiones.</li>       <li> Leave-one-out (LOO).</li>     </ul>     <p><b>7.2.2	Métricas de Desempeño</b></p>     <p> La evaluación de resultados se realiza a partir de la matriz de confusión. Es una matriz cuadrada de orden n, igual al número de clases. En las filas se representan las clases reales mientras que en las columnas se representan las clases asignadas por el clasificador. Las métricas de desempeño [20] toman valores de 0-1 ó de 0%-100%. Para la efectividad (PVP), la especificidad (PVN) y la precisión (VPP) el valor ideal es del 100%, y para las métricas, error positivo (PFN) y error negativo (PFP) el valor ideal es del 0%.</p>     <p><b>8.	RESULTADOS</b></p>     <p><b>8.1	Localización de la boca</b></p>     <p>El método DARP, se pone a prueba sobre todas las imágenes de la base datos (1320/postura). El criterio de evaluación de desempeño f<sub>DM</sub>(x), donde x es la imagen resultante del proceso, se muestra en la siguiente expresión.</p>     <p>La función f<sub>DM</sub>(x) fue evaluada por un experto para las 6600 imágenes resultantes en la prueba. En la <a href="#tab02">Tabla 2</a> se tiene el resultado de la evaluación del desempeño, además del tiempo promedio requerido para el procesamiento de una imagen utilizando una CPU Pentium 4 a 2.8 GHz.</p>     ]]></body>
<body><![CDATA[<p> <b><a name="tab02"></a>Tabla 2.</b> Desempeño del algoritmo para la detección de la boca.    <br> <b>Table 2.</b> Mouth detection algorithm performance. </p>     <p><img src="/img/revistas/dyna/v73n150/a16tab02.gif"></p>     <p>La <a href="#fig10">Fig. 10</a> muestra uno de los resultados de la prueba.</p>     <p>Como se puede ver en la <a href="#tab02">Tabla 2</a>, fueron muy pocas las imágenes en las que la detección no fue óptima, por lo tanto, los casos en donde el algoritmo falló, fueron corregidos manualmente, pues lo que se pretendía desde un principio, era organizar una base de datos de imágenes con las características visuales específicas que se analizan en este trabajo. Se tienen entonces, 6600 imágenes de posturas labiales. El formato de las imágenes es PPM. Las dimensión de las imágenes depende del sujeto y de la postura que se haya extraído.</p>     <p><a name="fig10"></a><img src="/img/revistas/dyna/v73n150/a16fig10.gif" border="0"></p>     <p><b>Figura 10.</b> Resultado de la extracción de la boca.    <br>   <b>Figure 10.</b> Detected mouth.</p>     <p><b>8.2	Extracción de características</b></p>     <p><b>8.2.1	Pruebas de Localización de Puntos</b></p>     ]]></body>
<body><![CDATA[<p> Los diferentes algoritmos de extracción de características son probados empleando la base de datos obtenida de la prueba del método DARP. </p>     <p> Para el análisis de resultados de las diferentes técnicas, se tienen cuatro pruebas:</p> <ol>       <li>	Localización de vértices (Vt) empleando el método de GV.</li>       <li>	Localización de Vt empleando el método REBPS. </li>       <li>	Localización de los puntos del contorno (CP) empleando la Imagen de     Tono Filtrado.</li>     <li>Localización de los CP empleando la Exclusión de Rojo.</li>     </ol>     <p>En cada una de las pruebas se obtiene la localización de los 8 puntos característicos, con sus coordenadas x e y (Crdx,y), distribuidos a lo largo de la boca. Además, se mide el tiempo de computo empleado para el procesamiento de cada imagen. En la <a href="#tab03">Tabla 3</a> se encuentra la definición de los 8 puntos del contorno exterior de los labios.</p>     <p><b><a name="tab03"></a>Tabla 3.</b> Descripción de los puntos característicos obtenidos durante el procesamiento de la imagen.    <br>   <b>Table 3. </b>Notation for the extracted points.</p>     ]]></body>
<body><![CDATA[<p><img src="/img/revistas/dyna/v73n150/a16tab03.gif" border="0"></p>     <p><b>8.2.2	Desempeño de los algoritmos</b></p>     <p> Los resultados se evalúan a través de la comparación de los resultados obtenidos de manera automática, con los resultados del etiquetado manual de 1030 imágenes de prueba. </p>     <p> A partir del error de cada muestra (Ecuación 4), se obtiene el valor del error promedio en píxeles y el error cuadrático medio.</p>     <p><img src="/img/revistas/dyna/v73n150/a16eq04.gif" width="163" height="15"> </p>     <p>con pm y pa como coordenadas de los puntos manual y automático respectivamente.</p>     <p>Para la localización de los Vt, se obtuvieron mejores resultados con el método REBPS como se puede observar en la <a href="#fig11">Figura 11</a>. Los tiempos de proceso se muestran en la <a href="#tab04">Tabla 4</a>.</p>     <p><a name="fig11"></a><img src="/img/revistas/dyna/v73n150/a16fig11.gif" border="0"></p>     <p><b>Figura 11.</b> Error en la ubicación automática de los vértices.    <br>     <b>Figure 11.</b> Error of the vertex detection algorithms.</p>     ]]></body>
<body><![CDATA[<p><b><a name="tab04"></a>Tabla 4.</b> Tiempos de proceso para la detección de los vértices.    <br>   <b>Table 4. </b>Vertex detection processing time. </p>     <p><img src="/img/revistas/dyna/v73n150/a16tab04.gif" border="0"></p>     <p> La <a href="#fig12">Figura 12</a> exhibe uno de los resultados de la localización de Vt.</p>     <p><a name="fig12"></a><img src="/img/revistas/dyna/v73n150/a16fig12.gif" border="0"></p>     <p><b>Figura 12.</b> Localización de vértices.    <br>     <b>Figure 12.</b> Detected vertex.</p>     <p>En cuanto a la localización de los CP, se obtuvo un mejor desempeño con la extracción a partir de la información   de tono filtrado, como lo ilustra la <a href="#fig13">Figura 13</a>.</p>     <p><a name="fig13"></a><img src="/img/revistas/dyna/v73n150/a16fig13.gif" border="0"></p>     <p><b>Figura 13.</b> Error en la ubicación automática de los puntos del contorno.    ]]></body>
<body><![CDATA[<br>     <b>Figure 13.</b> Error of the contour points detection.</p>     <p>La detección de los puntos que definen el contorno exterior de los labios,   se puede observar en la <a href="#fig14">Figura 14</a>.</p>     <p><a name="fig14"></a><img src="/img/revistas/dyna/v73n150/a16fig14.gif" border="0"></p>     <p><b>Figura 14.</b> Localización de los puntos del contorno.    <br>     <b>Figure 14. </b>Detected contour points.</p>     <p><b>8.2.3	Pruebas en pacientes con labio y paladar hendido corregido (LPHC) </b></p>     <p> El objetivo principal de este trabajo, es su aplicación en el tratamiento en pacientes con LPHC. Por esta razón, se realizaron pruebas de detección del contorno exterior de los labios, las Figuras 15 y 16 exhiben algunos de los resultados.</p>     <p>Estas imágenes fueron tomadas sin control de las condiciones de adquisición, lo que lleva a pensar que los algoritmos pueden llegar a funcionar adecuadamente indiferentemente de la morfología de la boca y condiciones de adquisición.</p>     <p><a name="fig15"></a><img src="/img/revistas/dyna/v73n150/a16fig15.gif" border="0"></p>     <p><b>Figura 15.</b> Detección del contorno en un paciente con LPHC pronunciando los cinco fonemas vocales.    ]]></body>
<body><![CDATA[<br>   <b>Figure 15.</b> Detected contour of CLP patient articulating the five vowel phonemes of Spanish.</p>     <p><a name="fig16"></a><img src="/img/revistas/dyna/v73n150/a16fig16.gif" border="0"></p>     <p>  <b>Figura 16.</b> Detección del contorno en varios pacientes con LPHC.    <br> <b>Figure 16.</b> Detected contour of different CLP patients.</p>     <p><b>8.3	Selección de características</b></p>     <p><b>8.3.1	AEECCM</b></p>     <p> El método de MANOVA y ANOVA realiza una observación de la comparación de las características clase a clase con el fin de obtener aquellas que son más discriminantes al momento de realizar la clasificación. En la <a href="#tab05">Tabla 5</a>, se pueden observar las características discriminantes después de realizar el análisis.</p>     <p>La notación se definió en la <a href="#tab01">Tabla 1</a>, el subíndice indica la región de la cuál se extrajo la característica según lo mostrado en la <a href="#fig08">Figura 8</a>.</p>     <p><b><a name="tab05"></a>Tabla 5.</b> Características escogidas luego del AEECCM.    <br>   <b>Table 5.</b> Selected features using AEECCM.</p>     ]]></body>
<body><![CDATA[<p><img src="/img/revistas/dyna/v73n150/a16tab05.gif" border="0"></p>     <p><b>8.3.2	Análisis Discriminante</b></p>     <p> En la <a href="#tab06">Tabla 6</a> se pueden observar las 13 características cuyos índices de Fisher fueron los más altos. Según lo mostrado en la <a href="#tab05">Tablas 5</a> y <a href="#tab06">6</a>, las características más discriminantes fueron las medias (<font face="Symbol">m</font>f) de cada una de la regiones, seguidas por los momentos bidimensionales m<sub>pq</sub> de orden inferior.</p>     <p> <b><a name="tab06"></a>Tabla 6.</b> Características escogidas a partir del   discriminante de Fisher.    <br>   <b>Table 6.</b> Selected features using Fisher discriminant.</p>     <p><img src="/img/revistas/dyna/v73n150/a16tab06.gif" border="0"></p>     <p>Los momentos invariantes (<font face="Symbol">f</font><sub>n</sub>) no arrojaron   información   discriminante, debido a que en el momento del análisis, presentaban una alta   dependencia. </p>     <p><b>8.4	Clasificación</b></p>     <p>Una vez encontradas las características discriminantes (clase-clase y multiclase), se seleccionó el conjunto de datos que iban a ser utilizados para el entrenamiento. Para esto se partió de una base de 6600 observaciones (1320 para cada postura). Es de notar que no todas las observaciones corresponden a una postura correcta, por lo tanto, se realizó un proceso adicional de separación manual, del cuál se derivan los resultados mostrados en la <a href="#tab07">Tabla 7</a>.</p>     <p><b><a name="tab07"></a>Tabla 7.</b> Separación de la observaciones.    ]]></body>
<body><![CDATA[<br>   <b>Table 7.</b> Selected samples.</p>     <p><img src="/img/revistas/dyna/v73n150/a16tab07.gif" border="0"></p>     <p>Debido a que el diseño de los clasificadores se hizo tomando la misma probabilidad de aparición para todas las clases, cada conjunto de datos debe tener igual número de muestras. Teniendo entonces, 417 observaciones (para cada clase) de posturas correctas.</p>     <p>Ésta cantidad se tomó del menor número de muestras correctas, en este caso la observaciones correspondientes al fonema /o/. Se tiene entonces un 70% (291 muestras) para entrenamiento y el restante 30% (126 muestras) para la validación. Finalmente se forman varios conjuntos de datos, basándose en la selección de características discriminantes: </p> <ul>       <li> 	CAE (Conjunto del Análisis Estadístico): compuesto por las características     mostradas en la <a href="#tab05">Tabla 5</a> producto del AEECCM.</li>       <li>	CAF (Conjunto del Análisis de Fisher): derivado del AMDF, con las 57 características.</li>       <li>	CADF (Conjunto del Análisis Discriminante de Fisher): producto del AMDF, con las 13 características     discriminantes mostradas en la <a href="#tab06">Tabla 6</a>.</li>     </ul>     <p>Con estos tres conjuntos de datos fueron probados los diferentes clasificadores descritos a continuación.</p>     <p><b>8.4.1	Clasificador lineal</b></p>     ]]></body>
<body><![CDATA[<p> Con MANOVA y ANOVA se obtuvieron conjuntos de características discriminantes entre pares de clases (discriminancia biclase). Por tal motivo, se construyeron tantos clasificadores lineales como parejas de clases hay (en este caso 10 clasificadores).</p>     <p>Para medir el desempeño, cada muestra desconocida es evaluada sobre todos los clasificadores conformados. Para decidir a que clase pertenece dicha muestra, se asigna a la clase que más veces fue señalada por los clasificadores. En los casos en que se presenten igualdades en la cantidad de asignaciones de clase para una misma muestra, se reevalúa directamente sobre los clasificadores correspondientes a las parejas que presentaron dicha igualdad. Obteniéndose entonces, un error global del 33%.</p>     <p><a name="fig17"></a><img src="/img/revistas/dyna/v73n150/a16fig17.gif" border="0"></p>     <p><b>Figura 17.</b> Efectividad (PVP) utilizando el CAF.    <br>   <b>Figure 17.</b> Effectiveness using the CAF.</p>     <p><b>8.4.2	Clasificador Bayesiano</b></p>     <p> Se construyeron 10 clasificadores Bayesianos biclase entrenados con el CAE. La evaluación se realizó de igual forma que con el clasificador lineal. Teniendo como resultado un error global del 32%. Adicionalmente se construyó un clasificador multiclase entrenado con el CAF y otro entrenado con el CADF.</p>     <p><a name="fig18"></a><img src="/img/revistas/dyna/v73n150/a16fig18.gif" border="0"></p>     <p><b>Figura 18.</b> Efectividad (PVP) utilizando el CADF.    <br>   <b>Figure 18.</b> Effectiveness using the CADF.</p>     ]]></body>
<body><![CDATA[<p><b>8.4.3	Clasificador por SVM</b></p>     <p> La máquina de vectores de soporte fue implementada bajo la consideración de que los datos no son separables, ya que esto determina la constante de penalización de la SVM cuando las separaciones no son lineales. El kernel de la máquina es una función de base radial. Se entrenaron dos SVM, una con el CAF y otra con el CADF.</p>     <p><b>8.4.4	Red neuronal artificial</b></p>     <p> Se construyó una red multicapa con realimentación hacia adelante, teniendo una capa de entrada, una capa oculta y una capa de salida. En la capa de entrada se tienen tantas neuronas como características seleccionadas. En la capa oculta se trabajó con una rango de 4 a 10 neuronas y en la capa de salida se encuentran 5 neuronas, correspondientes a las clases determinadas por las posturas labiales de los 5 fonemas vocales. Se entrenaron dos redes, una con el CAF y otra con el CADF.</p>     <p>La efectividad (PVP) de los tres últimos clasificadores mencionados, es comparada en las Figuras 17 y 18.</p>     <p>Como puede verse, los clasificadores tienen un buen desempeño al separar los fonemas /a/ y /u/ y existe confusión al intentar separar las demás clases, esto debido a que como se mostró en la etapa de selección de características, aunque existe discriminancia, los índices son bajos. Es destacar el bajo desempeño de la SVM, en el momento de clasificar los fonemas /e/ y /o/, una posible causa de esto, es que la SVM hace un análisis geométrico de la distribución de los datos, por lo tanto en el momento en que se presente un traslape entre los datos de dos o mas clases, la SVM solo verá una sola. Esto se refleja en un alto desempeño en la clasificación de los fonemas /i/ y /u/, que se traslapan con los fonemas /e/ e /i/ respectivamente. Para probar esto, se agruparon los fonemas /e/,/i/ y los fonemas /o/,/u/, resultando en una mejora del desempeño trabajando únicamente con tres clases, como se ve en la <a href="#fig19">Figura 19</a>.</p>     <p><a name="fig19"></a><img src="/img/revistas/dyna/v73n150/a16fig19.gif" border="0"></p>     <p><b>Figura 19.</b> Efectividad (PVP) para las clases agrupadas. Utilizando el CADF.    <br>   <b>Figure 19.</b> Effectiveness for joint classes using the CADF. </p>     <p>     <b>9.	CONCLUSIONES Y TRABAJO FUTURO</b></p>     ]]></body>
<body><![CDATA[<p>Las técnicas empleadas, basadas en la información de color y sus transformaciones en los diferentes espacios de color, la técnica de proyecciones, los detectores de bordes y el análisis de regiones, son invariantes a la rotación y traslación de la boca. De igual manera a si la boca se encuentra abierta o cerrada.</p>     <p>La evaluación de las características empleando el Análisis Estadístico y el Análisis Multivariado de Fisher permite reducir el costo computacional, sin disminuir la eficiencia en la clasificación, garantizando, la integridad de los resultados. </p>     <p> Los errores de los diferentes clasificadores implementados permiten concluir que se puede trabajar con un clasificador muy sencillo como el Bayesiano para separar los cinco fonemas vocales. </p>     <p> Los resultados obtenidos durante el desarrollo de este trabajo empleando imágenes de niños control pueden ser aplicados en el diagnóstico a niños con labio y/o paladar hendido corregido.</p>     <p>Utilizar el método REBPS para la detección de los puntos del contorno y combinar los resultados con técnicas que utilizan contornos deformables para con esto establecer una plantilla que describa la forma estándar de la boca de los niños en las diferentes edades.</p>     <p>Probar con imágenes en las que se tenga una buena diferenciación fonemas /e/-/i/ y /o/-/u/. Obtener un conjunto de características adicionales (segmentar los dientes, evaluar su visibilidad y separación). </p>     <p>   <b>REFERENCIAS </b></p>     <!-- ref --><p>[1] MERSEREAU R., RAO R. Lip modelling for visual speech recognition.   28th Annual Asimular Conference on Signals, Systems, and Computer, IEEE Computer   Society, 2, 1994.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000270&pid=S0012-7353200600030001600001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [2] LUETTIN J. Visual Speech and Speaker Recognition. PhD thesis. Department   of Computer Science. University of Sheffield. 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000271&pid=S0012-7353200600030001600002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [3] TORRESANI L. CAPRILE B. COIANIZ  T. 2d deformable models for visual speech   analysis. Istituto per la Ricerca Scientifica e Tecnologica. 1996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000272&pid=S0012-7353200600030001600003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [4] LUTHON F. LIÉVIN, M. Lip features automatic extraction. Signal and Image Laboratory, Grenoble National Polytechnical Institute. 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000273&pid=S0012-7353200600030001600004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [5] ABDEL-MOTTALEB M. JAIN A. HSU, R. Face detection in color images. IEEE   Transactions on Pattern Analysis and Machine Intelligence, 24, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000274&pid=S0012-7353200600030001600005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [6] BESSLICH P., BASSMANN H. ADOCULOS. Digital Image Processing. International   Thompson Computer Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000275&pid=S0012-7353200600030001600006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [7] POWERS D. M. W., LEWIS T.W. Audio visual speech recognition using red exclusion   and neural networks. School of Informatics and Engineering, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000276&pid=S0012-7353200600030001600007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [8] SMITH S. M., BRADY J. M. SUSAN - a new approach to low level image processing.   Int. Journal of Computer Vision, 23(1):45–78, May 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000277&pid=S0012-7353200600030001600008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [9] DAZA G., SÁNCHEZ L. G., SUÁREZ J. F, CASTELLANOS G. Pca, kpca y manova sobre señales de voz en imágenes de posturas labiales y audio. Technical report, Grupo de Procesamiento Digital de Señales. Universidad Nacional de Colombia, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000278&pid=S0012-7353200600030001600009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [10] YAMBOR W. Analysis of pca-based and fisher discriminant-based image recognition   algorithms. Technical Report. Fort Collins (Colorado). Colorado State University,   2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000279&pid=S0012-7353200600030001600010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [11] DUDA R., HART O., STORE D. G. Pattern Classification. Wiley-Interscience,   New York, second edition, 2001.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000280&pid=S0012-7353200600030001600011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [12] VAPNIK V. The Nature of Statistical Learning Theory. Springer, NY, 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000281&pid=S0012-7353200600030001600012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [13] MATHWORKS. Neural Network Toolbox: User’s Guide - Version 4. For Use with MATLAB. The MathWorks, Inc., Natick, MA, 2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000282&pid=S0012-7353200600030001600013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [14] MEJÍA I. Extracción automática de características faciales para el estudio antropométrico en niños entre 5 y 10 años de la ciudad de manizales. Technical report, Grupo de Percepción y Control Inteligente. Universidad Nacional de Colombia, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000283&pid=S0012-7353200600030001600014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [15] WARK T., SRIDHARAN S., CHANDRAN V. An approach to statistical lip modeling   for speaker identification via chromatic feature extraction. In Proceedings   of the IEEE International Conference on Pattern Recognition, pages 123–125, August, 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000284&pid=S0012-7353200600030001600015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [16] WOODS R., GONZÁLEZ R. Tratamiento Digital de Imágenes. Addison - Wesley Iberoamerica, S.A., 1996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000285&pid=S0012-7353200600030001600016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [17] CORREDERA T. Defectos en la Dicción Infantil. Procedimientos para su Corrección. Editorial Kapelusz, 1949.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000286&pid=S0012-7353200600030001600017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [18] CARREIRA M. A. A Review of Dimension Reduction Techniques. Technical Report   CS–96–09, Dept. of Computer Science, University of Sheffield, January 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000287&pid=S0012-7353200600030001600018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [19] MARTINEZ W. L., MARTINEZ A. R. Computational Statistics Handbook with   MATLAB. Chapman & Hall/CRC, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000288&pid=S0012-7353200600030001600019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   [20] FERRI C., HERNÁNDEZ J., SALIDO M. A. Volume under the roc surface for multiclass problems. Exact computation and evaluation of approximations. Dep. Sistemes Informàtics i Computació, Univ. Politècnica de Valencia (Spain), April 2003. .&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000289&pid=S0012-7353200600030001600020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MERSEREAU]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[RAO]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Lip modelling for visual speech recognition]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[28th Annual Asimular Conference on Signals, Systems, and Computer]]></conf-name>
<conf-date>1994</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LUETTIN]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Visual Speech and Speaker Recognition]]></source>
<year>1997</year>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TORRESANI]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[CAPRILE]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[COIANIZ]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<collab>Istituto per la Ricerca Scientifica e Tecnologica</collab>
<source><![CDATA[2d deformable models for visual speech analysis]]></source>
<year>1996</year>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LUTHON]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[LIÉVIN]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<collab>Signal and Image Laboratory</collab>
<source><![CDATA[Lip features automatic extraction]]></source>
<year>1998</year>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ABDEL-MOTTALEB]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[JAIN]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[HSU]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Face detection in color images.]]></article-title>
<source><![CDATA[IEEE Transactions on Pattern Analysis and Machine Intelligence]]></source>
<year>2002</year>
<numero>24</numero>
<issue>24</issue>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BESSLICH]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[BASSMANN]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[ADOCULOS]]></surname>
</name>
</person-group>
<source><![CDATA[Digital Image Processing]]></source>
<year></year>
<publisher-name><![CDATA[International Thompson Computer Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[POWERS D.]]></surname>
<given-names><![CDATA[M. W.]]></given-names>
</name>
<name>
<surname><![CDATA[LEWIS]]></surname>
<given-names><![CDATA[T. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Audio visual speech recognition using red exclusion and neural networks]]></article-title>
<source><![CDATA[]]></source>
<year>2003</year>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SMITH]]></surname>
<given-names><![CDATA[S. M.]]></given-names>
</name>
<name>
<surname><![CDATA[BRADY]]></surname>
<given-names><![CDATA[J. M.]]></given-names>
</name>
<name>
<surname><![CDATA[SUSAN]]></surname>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[a new approach to low level image processing]]></article-title>
<source><![CDATA[Int. Journal of Computer Vision]]></source>
<year>May </year>
<month>19</month>
<day>97</day>
<volume>23</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>45-78</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DAZA]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[SÁNCHEZ]]></surname>
<given-names><![CDATA[L. G.]]></given-names>
</name>
<name>
<surname><![CDATA[SUÁREZ]]></surname>
<given-names><![CDATA[J. F]]></given-names>
</name>
<name>
<surname><![CDATA[CASTELLANOS]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Pca, kpca y manova sobre señales de voz en imágenes de posturas labiales y audio]]></source>
<year>2004</year>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YAMBOR]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Analysis of pca-based and fisher discriminant-based image recognition algorithms.]]></article-title>
<source><![CDATA[]]></source>
<year>2000</year>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DUDA]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[HART]]></surname>
<given-names><![CDATA[O.]]></given-names>
</name>
<name>
<surname><![CDATA[STORE]]></surname>
<given-names><![CDATA[D. G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Classification]]></source>
<year>2001</year>
<edition>second edition</edition>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Wiley-Interscience]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VAPNIK]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
</person-group>
<source><![CDATA[The Nature of Statistical Learning Theory]]></source>
<year>1995</year>
<edition>Springer</edition>
<publisher-loc><![CDATA[NY ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<collab>MATHWORKS</collab>
<source><![CDATA[Neural Network Toolbox: User&#8217;s Guide - Version 4. For Use with MATLAB]]></source>
<year>2000</year>
<publisher-loc><![CDATA[Natick^eMA MA]]></publisher-loc>
<publisher-name><![CDATA[The MathWorks, Inc.,]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MEJÍA]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Extracción automática de características faciales para el estudio antropométrico en niños entre 5 y 10 años de la ciudad de manizales]]></article-title>
<source><![CDATA[]]></source>
<year>2004</year>
</nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WARK]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[SRIDHARAN]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[CHANDRAN]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An approach to statistical lip modeling for speaker identification via chromatic feature extraction.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[ Proceedings of the IEEE International Conference on Pattern Recognition]]></conf-name>
<conf-date>August, 1998</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WOODS]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[GONZÁLEZ]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Tratamiento Digital de Imágenes]]></source>
<year>1996</year>
<publisher-name><![CDATA[Addison - Wesley Iberoamerica, S.A.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CORREDERA]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Defectos en la Dicción Infantil. Procedimientos para su Corrección.]]></source>
<year>1949</year>
<publisher-name><![CDATA[Editorial Kapelusz]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CARREIRA]]></surname>
<given-names><![CDATA[M. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[A Review of Dimension Reduction Techniques]]></source>
<year>Janu</year>
<month>ar</month>
<day>y </day>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARTINEZ]]></surname>
<given-names><![CDATA[W. L.]]></given-names>
</name>
<name>
<surname><![CDATA[MARTINEZ]]></surname>
<given-names><![CDATA[A. R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Computational Statistics Handbook with MATLAB]]></source>
<year>2002</year>
<publisher-name><![CDATA[Chapman & Hall/CRC]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FERRI]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[HERNÁNDEZ]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[SALIDO]]></surname>
<given-names><![CDATA[M. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Volume under the roc surface for multiclass problems. Exact computation and evaluation of approximations.]]></article-title>
<source><![CDATA[]]></source>
<year>Apri</year>
<month>l </month>
<day>20</day>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
