<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0012-7353</journal-id>
<journal-title><![CDATA[DYNA]]></journal-title>
<abbrev-journal-title><![CDATA[Dyna rev.fac.nac.minas]]></abbrev-journal-title>
<issn>0012-7353</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional de Colombia]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0012-73532010000200024</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[ANTROPOMETRIA DE LA BOCA A PARTIR DE DOS VISTAS]]></article-title>
<article-title xml:lang="en"><![CDATA[STEREO AND COLOR-BASED MOUTH ANTROPOMETRY]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[PRIETO]]></surname>
<given-names><![CDATA[FLAVIO]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[SALAZAR]]></surname>
<given-names><![CDATA[AUGUSTO]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia Departamento de Ingeniería Mecánica y Mecatrónica ]]></institution>
<addr-line><![CDATA[Bogotá ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Nacional de Colombia Grupo de Percepción y Control Inteligente ]]></institution>
<addr-line><![CDATA[Manizales ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2010</year>
</pub-date>
<volume>77</volume>
<numero>162</numero>
<fpage>225</fpage>
<lpage>236</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0012-73532010000200024&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0012-73532010000200024&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0012-73532010000200024&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Se presenta un sistema de antropometría de la boca utilizando imágenes tridimensionales, reconstruidas a partir de dos vistas 2D. De las imágenes 3D, reconstruidas mediante técnicas de visión artificial y procesamiento digital de imágenes 2D, se extraen características faciales especialmente en la región de los labios, las cuales permiten realizar una serie de medidas antropométricas como son: ancho de la boca, alto de la boca, longitud de los lados izquierdo y derecho del labio superior, longitud del labio inferior, ancho del philtrum, longitud y concavidad del arco de Cupido. Las medidas antropométricas arrojadas por el sistema fueron comparadas contra medidas similares realizadas por fotogrametría 2D y la medición directa sobre el rostro. Los resultados mostraron errores inferiores al milímetro, con la ventaja que las medidas presentan menor dispersión que los otros dos métodos.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[A mouth anthropometry system using 3D images obtained from two views is introduced. 3D face features in the lips region are extracted from reconstructed 3D images, in order to compute some anthropometric measures, like: wide of the mouth, height of the mouth, length of the left and right sides of the upper lip, length of the lower lip, width of the philtrum, length and concavity of the Cupid´s arc. The anthropometric measurements obtained by using the system were compared against similar measurements obtained by 2D photogrammetry and by direct measurement on the face. Results show errors smaller than millimeter, with the advantage that 3D measurements have minor dispersion than the other methods.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Antropometría de la boca]]></kwd>
<kwd lng="es"><![CDATA[reconstrucción 3D]]></kwd>
<kwd lng="es"><![CDATA[fotogrametría]]></kwd>
<kwd lng="es"><![CDATA[visión por computador]]></kwd>
<kwd lng="en"><![CDATA[Mouth anthropometry]]></kwd>
<kwd lng="en"><![CDATA[3D reconstruction]]></kwd>
<kwd lng="en"><![CDATA[photogrammetry]]></kwd>
<kwd lng="en"><![CDATA[computer vision]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="center"><font size="4" face="Verdana, Arial, Helvetica, sans-serif"><b>ANTROPOMETRIA DE   LA BOCA A PARTIR DE DOS VISTAS</b> </font> </p>     <p align="center"><i><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>STEREO   AND COLOR-BASED MOUTH ANTROPOMETRY</b></font></i></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>FLAVIO PRIETO</b>    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><i>Departamento   de Ingenier&iacute;a Mec&aacute;nica y Mecatr&oacute;nica, Universidad Nacional de Colombia Sede   Bogot&aacute;, Bogot&aacute;, Colombia.</i></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>AUGUSTO   SALAZAR</b>    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><i>Grupo   de Percepci&oacute;n y Control Inteligente, Universidad Nacional de Colombia Sede   Manizales, Manizales, Colombia.</i></font> </p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Recibido para revisar   Enero 27 de 2009, aceptado Julio 17 de   2009, versi&oacute;n final Julio 21 de 2009</b></font></p>     <p>&nbsp;</p> <hr>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN:</b> Se presenta un sistema de antropometr&iacute;a de la boca utilizando im&aacute;genes   tridimensionales, reconstruidas a partir de dos vistas 2D. De las im&aacute;genes 3D,   reconstruidas mediante t&eacute;cnicas de visi&oacute;n artificial y procesamiento digital de   im&aacute;genes 2D, se extraen caracter&iacute;sticas faciales especialmente en la regi&oacute;n de   los labios, las cuales permiten realizar una serie de medidas antropom&eacute;tricas   como son: ancho de la boca, alto de la boca, longitud de los lados izquierdo y   derecho del labio superior, longitud del labio inferior, ancho del <i>philtrum</i>,   longitud y concavidad del arco de Cupido. Las medidas antropom&eacute;tricas arrojadas   por el sistema fueron comparadas contra medidas similares realizadas por   fotogrametr&iacute;a 2D y la medici&oacute;n directa sobre el rostro. Los resultados   mostraron errores inferiores al mil&iacute;metro, con la ventaja que las medidas   presentan menor dispersi&oacute;n que los otros dos m&eacute;todos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>PALABRAS CLAVE</b>: Antropometr&iacute;a de la boca,   reconstrucci&oacute;n 3D, fotogrametr&iacute;a, visi&oacute;n por computador.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>ABSTRACT</b>: A mouth   anthropometry system using 3D images obtained from two views is introduced. 3D   face features in the lips region are extracted from reconstructed 3D images, in   order to compute some anthropometric measures, like:   wide of the mouth, height of the mouth, length of the left and right sides of   the upper lip, length of the lower lip, width of the philtrum, length and   concavity of the Cupid´s arc. The anthropometric measurements obtained by using   the system were compared against similar measurements obtained by 2D   photogrammetry and by direct measurement on the face. Results show errors   smaller than millimeter, with the advantage that 3D measurements have minor   dispersion than the other methods.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>KEYWORDS</b>: Mouth anthropometry, 3D reconstruction,   photogrammetry, computer vision.</font></p> <hr>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"> <b>1. INTRODUCCI&Oacute;N </b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El procesamiento de im&aacute;genes faciales es una   de las &aacute;reas de mayor desarrollo dentro de los sistemas de visi&oacute;n artificial   &#91;1-4&#93;. Las medidas faciales han sido variables fundamentales para determinar   las caracter&iacute;sticas espec&iacute;ficas de cierta raza, el establecimiento de reglas   para dibujar el rostro y la cabeza, aplicaciones de car&aacute;cter m&eacute;dico en general;   interfaces hombre-m&aacute;quina a trav&eacute;s del reconocimiento autom&aacute;tico de rostros y   en seguridad. Por ejemplo, en aplicaciones m&eacute;dicas, el estudio de anomal&iacute;as   faciales en ni&ntilde;os se realiza comparando sus medidas con datos promedio,   obtenidos dentro de la poblaci&oacute;n a la cual pertenece el sujeto. Las </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">medidas de esta poblaci&oacute;n deben mostrar unos   intervalos de normalidad que permitan ubicar las </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">medidas faciales del paciente dentro de un rango,   estableciendo la existencia de alteraci&oacute;n o no dentro de ella &#91;5&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La determinaci&oacute;n de las medidas faciales,   hecha de manera manual, es una tarea que toma mucho tiempo y en muchos casos es   imprecisa, debido a la valoraci&oacute;n subjetiva de quien realiza las medidas.   Buscando mejorar la eficiencia del proceso de obtenci&oacute;n de dichas medidas,   desde inicios de los a&ntilde;os 80 se ha venido sistematizando este proceso bajo el   nombre de fotogrametr&iacute;a del rostro &#91;6,7&#93;. Sin embargo, estos trabajos se han basado tradicionalmente en medidas bidimensionales, lo que conlleva a la   introducci&oacute;n de un error debido a la forma tridimensional del rostro. Lo   anterior, junto con la evoluci&oacute;n de los sistemas de adquisici&oacute;n de im&aacute;genes   tridimensionales &#91;8&#93;, que ya han alcanzado un alto grado de precisi&oacute;n, permite   que en la actualidad se puedan realizar an&aacute;lisis de im&aacute;genes faciales   utilizando este tipo de tecnolog&iacute;a &#91;9&#93;. No obstante, la gran mayor&iacute;a de los   trabajos actuales de an&aacute;lisis facial utilizando informaci&oacute;n 3D, est&aacute;n orientados   a la identificaci&oacute;n de rostros &#91;1-3,10&#93;, esto debido posiblemente, al   importante n&uacute;mero de aplicaciones comerciales y de seguridad, dejando un vac&iacute;o   en aplicaciones de antropometr&iacute;a para cirug&iacute;a reconstructiva facial &#91;11,12&#93;. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por lo anterior, en este trabajo se presenta   un sistema de antropometr&iacute;a facial utilizando im&aacute;genes tridimensionales,   reconstruidas a partir de dos vistas 2D. Las im&aacute;genes tridimensionales   suministran informaci&oacute;n que puede permitir determinar de manera precisa la   morfolog&iacute;a facial, facilitando la planificaci&oacute;n de un tratamiento. El trabajo   se centra en la medici&oacute;n autom&aacute;tica de algunas caracter&iacute;sticas de la boca. Pero   siguiendo una metodolog&iacute;a similar el sistema se puede ampliar para que realice   un an&aacute;lisis antropom&eacute;trico facial completo. El sistema de adquisici&oacute;n propuesto   es un sistema est&eacute;reo activo, que combina dos c&aacute;maras CCD y una fuente de luz   estructurada. Las im&aacute;genes adquiridas por las c&aacute;maras CCD son im&aacute;genes   bidimensionales y, sobre ellas se realiza todo el procesamiento para extraer   las caracter&iacute;sticas faciales de inter&eacute;s. Posteriormente, utilizando una t&eacute;cnica   de reconstrucci&oacute;n a partir de dos vistas, estos puntos caracter&iacute;sticos son   llevados al espacio tridimensional, donde se realizan las medidas   antropom&eacute;tricas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este documento est&aacute; compuesto, adem&aacute;s   de esta introducci&oacute;n y de las conclusiones generales, por tres secciones. En   la Secci&oacute;n 2 se describen   los procedimientos tradicionales de Antropometr&iacute;a Facial, la Secci&oacute;n 3 expone   las t&eacute;cnicas para la extracci&oacute;n de caracter&iacute;sticas de la boca, y la extracci&oacute;n   de caracter&iacute;sticas 3D a partir de dos vistas, finalmente se presentan los   resultados en la   Secci&oacute;n 4.</font></p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>2. ANTROPOMETR&Iacute;A   FACIAL</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se refiere al estudio de las   dimensiones y proporciones de las partes del cuerpo humano, con el prop&oacute;sito de   comprender los cambios f&iacute;sicos del hombre y las diferencias entre sus razas. La   evaluaci&oacute;n antropom&eacute;trica facial est&aacute; basada en la determinaci&oacute;n de locaciones   particulares del sujeto, para el caso m&aacute;s concreto, los puntos caracter&iacute;sticos   del rostro, definidos en t&eacute;rminos de las caracter&iacute;sticas visibles o palpables   del complejo facial. Un conjunto de medidas entre dichos puntos es obtenido   empleando procedimientos e instrumentos de medida exactos &#91;13&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>2.1 T&eacute;cnicas para   el estudio antropom&eacute;trico facial </b></font></p>     <p><b><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><i>2.1.1 Antropometr&iacute;a directa</i>    <br>   </font></b><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las medidas obtenidas por este   m&eacute;todo, son tomadas directamente de la superficie de la cabeza y la cara. La   compleja superficie de la cara requiere un gran n&uacute;mero de medidas incluyendo la   determinaci&oacute;n de la proyecci&oacute;n y las distancias lineales tangenciales (medidas   en mil&iacute;metros), las inclinaciones y los &aacute;ngulos (medidos en grados) &#91;7&#93;. Las   medidas antropom&eacute;tricas pueden ser obtenidas utilizando instrumentos, como:   calibrador lineal, calibrador angular, paralel&oacute;metro y Goni&oacute;metro. Para   realizar las medidas, ciertas precauciones deben ser tenidas en cuenta, por   ejemplo, la cabeza a ser medida debe conservarse en el plano horizontal. De   manera general, los puntos de medida deben ser marcados antes de ser medidos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><i>2.1.2 Fotogrametr&iacute;a bidimensional (2D)    <br>   </i></b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Esta t&eacute;cnica se basa en la   realizaci&oacute;n de las medidas a partir de las im&aacute;genes o fotograf&iacute;as 2D de los pacientes. En cirug&iacute;a pl&aacute;stica   reconstructiva, la documentaci&oacute;n fotogr&aacute;fica es tan importante como los datos   cuantitativos obtenidos de las medidas del esqueleto o de los tejidos blandos   del complejo craneofacial &#91;7&#93;. </font> </p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con estas t&eacute;cnicas de fotograf&iacute;a, las   siguientes medidas han cobrado importancia: <i>i</i>)   &Aacute;ngulos. Seis &aacute;ngulos del perfil facial pueden medirse con fiabilidad si las   fotograf&iacute;as proporcionan contornos claros de las l&iacute;neas de perfil facial. <i>ii</i>) Inclinaciones. Las medidas pueden   tomarse de la frente, de perfil, de la parte superior e inferior del rostro.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><i>2.1.3 Antropometr&iacute;a facial con im&aacute;genes tridimensionales   (3D)    ]]></body>
<body><![CDATA[<br>   </i></b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Durante los &uacute;ltimos a&ntilde;os, el uso de im&aacute;genes 3D   en aplicaciones relativas con el rostro humano se ha incrementado,   especialmente por la disponibilidad de estas tecnolog&iacute;as despu&eacute;s de m&aacute;s de 20   a&ntilde;os de investigaci&oacute;n &#91;8&#93;. Sin embargo, el mayor n&uacute;mero de estos trabajos se ha   orientado a la identificaci&oacute;n de rostros &#91;1-3&#93;. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En &#91;11&#93; se evalu&oacute; el potencial de los   sensores 3D con luz estructurada para la realizaci&oacute;n de medidas de la geometr&iacute;a   del rostro humano. El objetivo era crear modelos virtuales del rostro humano, a   partir de datos 3D obtenidos al numerizar el rostro de los sujetos y   caracterizar la precisi&oacute;n de tales medidas. Se concluy&oacute; que la calidad de los   datos 3D es suficiente para la realizaci&oacute;n de medidas con prop&oacute;sitos antropom&eacute;tricos.   Sin embargo, las medidas que se realizaron estaban orientadas hacia la   geometr&iacute;a del rostro. Adicionalmente, los puntos en los datos 3D utilizados   para las medidas, se seleccionaban manualmente y no de forma autom&aacute;tica. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Tal vez el &uacute;nico trabajo, a nuestro   conocimiento, directamente relacionado con la antropometr&iacute;a facial, es el   presentado en &#91;9&#93;. El objetivo fue comparar tres m&eacute;todos diferentes de realizar   medidas faciales: antropometr&iacute;a directa, fotogrametr&iacute;a 2D y   estereofotogrametr&iacute;a 3D. Los resultados obtenidos con el m&eacute;todo utilizando   estereofotogrametr&iacute;a, mostraron ser comparables con los obtenidos por el m&eacute;todo   de antropometr&iacute;a directa. Esto no sucedi&oacute; con el m&eacute;todo de fotogrametr&iacute;a 2D,   que arroj&oacute; medidas m&aacute;s alejadas. En este trabajo, se pusieron marcas en los   rostros de los sujetos numerizados, para poder obtener las medidas por el   tercer m&eacute;todo. El sistema para las medidas tridimensionales utiliz&oacute; dos   conjuntos de tres c&aacute;maras CCD sincronizadas, para la captura de la imagen. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En &#91;14&#93; se presenta un estudio que examina y compara las   superficies faciales de ni&ntilde;os con y sin labio y/o paladar hendido. Las   superficies son obtenidas mediante un sistema de adquisici&oacute;n que utiliza   tecnolog&iacute;a l&aacute;ser. Las medidas utilizadas para la comparaci&oacute;n se obtienen   seleccionando, manualmente, puntos sobre las superficies digitales. En el   trabajo presentado en &#91;15&#93;, se propone un algoritmo que, si bien es utilizado   para el reconocimiento de rostros, hace un an&aacute;lisis interesante de ciertas   medidas alrededor de la nariz y los ojos. Los puntos utilizados para estas   medidas son obtenidos autom&aacute;ticamente, a partir de los datos 3D. Un trabajo que   hace un an&aacute;lisis biom&eacute;trico de las orejas es presentado en &#91;16&#93;, pero las   medidas son utilizadas para identificaci&oacute;n de rostros y no para an&aacute;lisis   antropom&eacute;trico. La obtenci&oacute;n de las medidas es realizada de manera autom&aacute;tica   utilizando contornos deformables.</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>2.2 An&aacute;lisis  antropom&eacute;trico facial    <br> </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Si bien este trabajo puede ser visto como una    propuesta metodol&oacute;gica para realizar un an&aacute;lisis antropom&eacute;trico facial, est&aacute;  enfocado al estudio antropom&eacute;trico de la regi&oacute;n de la boca. Esto debido a la    importancia e impacto social que tiene la reconstrucci&oacute;n quir&uacute;rgica de los    labios y su posterior control, en pacientes (ni&ntilde;os) con labio y/o paladar  hendido corregido. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la reconstrucci&oacute;n quir&uacute;rgica de   los labios, uno de los factores m&aacute;s importantes para evaluar los resultados de   la intervenci&oacute;n, es la est&eacute;tica &#91;17&#93;. Desafortunadamente, existe un gran n&uacute;mero   de caracter&iacute;sticas que deben ser consideradas para lograr una evaluaci&oacute;n   objetiva &#91;6,7,17,18&#93;. En este trabajo nos centraremos   en el an&aacute;lisis del contorno externo de los labios, mediante la obtenci&oacute;n de un   conjunto de caracter&iacute;sticas que son consideradas como buenas descriptoras de la   morfolog&iacute;a de la boca (<a href="#fig01">Figura 1</a>). Adicionalmente, consideraremos la   caracter&iacute;stica conocida como concavidad del arco de Cupido. </font></p> <table border=0 cellspacing=0 cellpadding=0>   <tr>     <td width=160></td>     <td width=151 valign=top></td>   </tr> </table>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a name="fig01"></a><b><img src="/img/revistas/dyna/v77n162/a24fig01.gif">    <br>   Figura   1.</b> Caracter&iacute;sticas antropom&eacute;tricas de la boca    <br>   <b>Figure   1.</b> Anthropometric mouth features</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las medidas ser&aacute;n obtenidas   proporcionalmente al ancho de la boca. Este conjunto de caracter&iacute;sticas est&aacute;   orientado a establecer asimetr&iacute;a en las medidas, debido a su importancia para   establecer la calidad de la reconstrucci&oacute;n quir&uacute;rgica &#91;19&#93;.</font></p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>3. EXTRACCI&Oacute;N   DE CARACTER&Iacute;STiCAS DE   LA BOCA</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las im&aacute;genes para este trabajo fueron adquiridas bajo   condiciones controladas. Para la detecci&oacute;n y extracci&oacute;n de caracter&iacute;sticas de   la boca, se utilizan t&eacute;cnicas basadas en imagen-p&iacute;xel, las cuales presentan un   desempe&ntilde;o adecuado cuando la calidad de las im&aacute;genes es buena. Dentro de estas   t&eacute;cnicas se pueden destacar: el filtrado del tono, escala de grises &#91;20&#93; y   bordes horizontales &#91;21&#93;, entre otras. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.1 Ubicaci&oacute;n de   la boca    <br>   </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Inicialmente,   se procede a determinar la regi&oacute;n de la imagen donde se halla la boca, mediante   el procedimiento de detecci&oacute;n por an&aacute;lisis de regiones predominantes o M&eacute;todo   DARP. Este m&eacute;todo se encuentra descrito en &#91;22&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.2 Extracci&oacute;n de   los v&eacute;rtices    <br>   </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los puntos   donde se encuentran las fronteras extremas de los labios superior e inferior,   son llamados v&eacute;rtices. La extracci&oacute;n de estos se realiz&oacute; utilizando dos   procedimientos: el m&eacute;todo del gradiente vertical &#91;23&#93; y un m&eacute;todo de reducci&oacute;n   del espacio de b&uacute;squeda a partir de la segmentaci&oacute;n &#91;22&#93;.</font> </p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.3 Extracci&oacute;n del   contorno exterior de los labios</b>    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una vez se   han encontrado los v&eacute;rtices, se toman las coordenadas de &eacute;stos como punto de   partida para la extracci&oacute;n del contorno exterior de los labios. El siguiente   paso, consiste en una segmentaci&oacute;n detallada del contorno labial. No se utiliza   la t&eacute;cnica de filtrado de tono porque la regi&oacute;n resultante, a pesar de detectar   correctamente la boca, no hace una adecuada descripci&oacute;n del contorno. Para   solucionar este problema se utiliza una forma alternativa de segmentaci&oacute;n   llamada realce de rojo y umbralizaci&oacute;n din&aacute;mica (RRUD) &#91;24&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.4 Plantilla de la boca   basada en contornos activos<i>    ]]></body>
<body><![CDATA[<br>   </i></b>Con la   segmentaci&oacute;n lograda en la etapa anterior, se evidencia la posibilidad de   describir de manera precisa el contorno exterior de los labios. Como una   primera aproximaci&oacute;n a dicho contorno, se utilizan contornos activos (<a href="#fig02">Figura 2</a>).   El modelo empleado es el presentado en &#91;25&#93;, donde un contorno activo es una   curva param&eacute;trica <i>v</i>(<i>u</i>, <i>t</i>)   = &#91;<i>x</i>(<i>u</i>, <i>t</i>), <i>y</i>(<i>u</i>, <i>t</i>)&#93;; <i>u</i> Î &#91;0, 1&#93;, y <i>t</i> determina la posici&oacute;n temporal de un   punto en la secuencia, movi&eacute;ndose a trav&eacute;s del dominio espacial de una imagen.</font> </p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig02"></a><img src="/img/revistas/dyna/v77n162/a24fig02.gif">    <br>   Figura   2.</b> Primera aproximaci&oacute;n del contorno exterior de la boca    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Figure 2.</b> First outer lip contour approach</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un contorno activo es   definido como una funci&oacute;n de energ&iacute;a a ser minimizada, tal como   la Ecuaci&oacute;n   siguiente:</font></p>     <p><img src="/img/revistas/dyna/v77n162/a24eq00.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde, <i>E<sub>int</sub></i>, <i>E<sub>image</sub></i> y <i>E<sub>ext</sub></i> son llamadas energ&iacute;a   interna, energ&iacute;a de la imagen y energ&iacute;a externa, respectivamente. Con el objeto   de reducir el tiempo de c&oacute;mputo, se utiliz&oacute; un algoritmo para hallar contornos   activos r&aacute;pidos por muestreo &#91;26&#93;. Despu&eacute;s de minimizar la funci&oacute;n de energ&iacute;a   del contorno, se procede con la estimaci&oacute;n de la plantilla de la boca mediante   el ajuste de cuatro funciones param&eacute;tricas polinomiales. El grado de estas es   seleccionado de tal forma que la curva resultante ajuste la regi&oacute;n de la mejor   manera posible.</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><i><b>3.4.1 Labio inferior    <br> </b></i></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para ajustar el labio    inferior se usa s&oacute;lo una funci&oacute;n que permita capturar asimetr&iacute;as, ya que la    imagen del contorno de los labios puede ser frontal o lateral. Las funciones de    grado tres no pueden ajustar, de manera completa, la zona del labio (<a href="#fig03">Figura    3(a)</a>), por lo que se selecciona una funci&oacute;n de grado cuatro, no necesariamente sim&eacute;trica (<a href="#fig03">Figura 3(b)</a>).</font>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig03"></a><img src="/img/revistas/dyna/v77n162/a24fig03.gif">    <br>   Figura 3.</b> Ajuste del labio inferior por medio de una   funci&oacute;n polin&oacute;mica    ]]></body>
<body><![CDATA[<br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Figure 3.</b> Polynomial approach of the   lower lip</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><i>3.4.2 Labio superior</i>    <br> </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el ajuste del labio    superior, se mantiene el mismo criterio utilizado para el ajuste del labio    inferior. Ahora se requieren tres funciones polinomiales: una para el lado    izquierdo, otra para el lado derecho y una tercera para el arco de Cupido. Las    primeras dos funciones son utilizadas para describir <i>L<sub>s</sub></i> en los dos lados (ver la <a href="#fig01">Figura 1</a>). Una funci&oacute;n de    grado dos no permite un ajuste adecuado (<a href="#fig04">Figura 4(a)</a>), por lo que se selecciona    una funci&oacute;n de grado tres (<a href="#fig04">Figura 4(b)</a>). La &uacute;ltima funci&oacute;n es utilizada para    ajustar <i>C<sub>ba</sub></i>. Con el    prop&oacute;sito de ajustar adecuadamente toda la zona del arco de Cupido, una funci&oacute;n    de grado tres no es suficiente (<a href="#fig04">Figura 4(c)</a>), por lo que se seleccion&oacute; una funci&oacute;n de grado cuatro (<a href="#fig04">Figura 4(d)</a>).</font>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig04"></a><img src="/img/revistas/dyna/v77n162/a24fig04.gif">    <br>   Figura   4. </b>Ajuste de los labios usando polinomios    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Figure 4.</b> Lip polynomial   approach</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las funciones son   obtenidas mediante la descomposici&oacute;n de valores singulares del sistema de   ecuaciones con restricciones, usando los puntos del contorno. Los v&eacute;rtices son   los puntos fronteras entre la funci&oacute;n c&uacute;bica (regiones de los lados) y las   funciones de ajuste del labio inferior. Los puntos de la frontera caen sobre la   proyecci&oacute;n del punto m&aacute;s bajo del arco de cupido, entre la funci&oacute;n   representando la regi&oacute;n media y las regiones de los lados. Para preservar la   continuidad entre las funciones, ellas son estimadas usando puntos comunes de   su vecindario (<a href="#fig04">Figura 4(e)</a> y <a href="#fig04">4(f)</a>).</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.5 Caracter&iacute;sticas  3D en dos vistas    <br> </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este    trabajo, se propone utilizar dos vistas del rostro para obtener un modelo    tridimensional de este. Para realizar esta labor, se combinan las t&eacute;cnicas de    extracci&oacute;n de caracter&iacute;sticas 2D de la boca, con el algoritmo de reconstrucci&oacute;n tridimensional presentado en &#91;27&#93;.</font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sobre la   nube de puntos de un rostro (<a href="#fig05">Figura 5</a>), obtenida mediante reconstrucci&oacute;n   est&eacute;reo utilizando la t&eacute;cnica presentada en &#91;27&#93;, se debe realizar una   selecci&oacute;n de los puntos m&aacute;s cercanos a las zonas de inter&eacute;s: v&eacute;rtices, arco de   Cupido, fronteras de la mucosa labial, etc, los cuales, en conjunto, describen   las caracter&iacute;sticas utilizadas para la medici&oacute;n.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig06"></a><img src="/img/revistas/dyna/v77n162/a24fig05.gif">    <br>   Figura 5.</b> Nube de puntos de un rostro    ]]></body>
<body><![CDATA[<br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Figure 5.</b> 3D points of a face</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Cada uno de los puntos que conforman la nube,   corresponde a un &uacute;nico punto en las dos im&aacute;genes empleadas para la   reconstrucci&oacute;n est&eacute;reo. Posteriormente, se buscan las caracter&iacute;sticas de manera   independiente en cada una de las im&aacute;genes y luego se hace un apareamiento de los   puntos encontrados.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los puntos a   poner en parejas corresponden a los puntos de la imagen que conforman el   contorno exterior de los labios, obtenidos como se expuso en las subsecciones   precedentes. Los puntos de control del contorno coinciden con los puntos entre   los cuales se establecen las diferentes medidas antropom&eacute;tricas estudiadas en   este trabajo.   La <a href="#fig06">Figura   6</a> muestra la extracci&oacute;n del contorno en dos de las im&aacute;genes utilizadas para la   reconstrucci&oacute;n. Los puntos en color rojo corresponden a los v&eacute;rtices. El punto   color azul en el labio superior, representa el punto m&aacute;s bajo del arco de   Cupido, determinado a partir de los puntos de inflexi&oacute;n de la funci&oacute;n que lo   representa. El punto azul en el labio inferior se determina, al igual que el de   arriba, con la ayuda de los puntos de inflexi&oacute;n; estos dos puntos se usan para   la medici&oacute;n del alto de la boca. Los puntos color cian corresponden a la base   de las columnas del <i>philtrum</i>. Los puntos de color verde, en conjunto,   ayudan a que la medici&oacute;n de la longitud de superficie sea posible.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig06"></a><img src="/img/revistas/dyna/v77n162/a24fig06.gif">    <br>   Figura 6.</b> Contornos de los labios    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Figure 6.</b> Lips contour</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una vez seleccionados los puntos del contorno   de manera independiente, deben ser puestos en parejas. Con los puntos de color   rojo, azul o cian este apareamiento es sencillo, ya que ellos tienen una   correspondencia uno a uno. Para los puntos verdes, este proceso de   aparejamiento es m&aacute;s dif&iacute;cil. Debido a la perspectiva, el n&uacute;mero de puntos de   contorno en cada imagen no es igual, y es dif&iacute;cil saber cu&aacute;les puntos se   corresponden con cu&aacute;les. El problema se resuelve empleando las siluetas   segmentadas obtenidas como se presenta en &#91;27&#93; y la utilizaci&oacute;n del Algoritmo   1.</font></p>     <p><img src="/img/revistas/dyna/v77n162/a24alg00.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Despu&eacute;s de determinar los puntos correspondientes se procede a   reconstruir la posici&oacute;n tridimensional de los puntos del contorno siguiendo la   t&eacute;cnica expuesta en &#91;27&#93;.   La <a href="#fig07">Figura   7</a> muestra algunos de los resultados de reconstrucci&oacute;n del contorno.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig07"></a><img src="/img/revistas/dyna/v77n162/a24fig07.gif">    ]]></body>
<body><![CDATA[<br>   Figura 7.</b> Reconstrucci&oacute;n 3D del contorno de los labios    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Figure 7.</b> 3D Lips contour   reconstruction</font></p>     <p>&nbsp;</p>     <p><b><font size="3" face="Verdana, Arial, Helvetica, sans-serif">4. RESULTADOS</font></b></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las medidas de la boca fueron tomadas   empleando los tres m&eacute;todos: Antropometr&iacute;a directa, Fotogrametr&iacute;a 2D y   Antropometr&iacute;a con im&aacute;genes 3D. En esta Secci&oacute;n se presentan y comparan los resultados   obtenidos por las tres t&eacute;cnicas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.1 Antropometr&iacute;a   directa</b>    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las medidas   de referencia (<i>Gold Standard</i>) con las   cuales se determina la precisi&oacute;n de los m&eacute;todos, corresponden a las obtenidas   mediante antropometr&iacute;a directa. La <a href="#tab01">Tabla 1</a> muestra cada una de las medidas y los instrumentos   utilizados para su obtenci&oacute;n. Los instrumentos son notados como: <i>CL</i>, Calibrador Lineal; <i>CM</i>, Cinta M&eacute;trica y O, Observaci&oacute;n.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab01"></a>Tabla 1.</b> Medidas e   instrumentos utilizados    <br>   <b>Table 1.</b> Measurements a tools used </font>     <br>   <img src="/img/revistas/dyna/v77n162/a24tab01.gif"></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las medidas   fueron tomadas a 5 personas (3 hombres y 2 mujeres), que participaron de forma   voluntaria, luego de ser informados del objeto del estudio y de que los m&eacute;todos   empleados no implican ning&uacute;n riesgo para su salud. Las edades de los sujetos   oscilan entre 23 y 27 a&ntilde;os, y ninguno posee malformaciones faciales. Al momento   de realizar la medici&oacute;n el sujeto estaba sentado en posici&oacute;n relajada. Cada una   de las medidas fue tomada cinco veces, esto con el fin de evaluar la repetitividad.   Los resultados de las mediciones son mostrados en la <a href="#tab02">Tabla 2</a>; m indica la media y s la desviaci&oacute;n est&aacute;ndar. Los valores   est&aacute;n dados en mil&iacute;metros. NA significa que la medida No Aplica.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab02"></a>Tabla 2.</b> Medidas   obtenidas por antropometr&iacute;a directa    <br>   <b>Table 2.</b> Direct anthropometry results</font>    <br>   <img src="/img/revistas/dyna/v77n162/a24tab02.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como se   muestra en   la <a href="#tab02">Tabla   2</a>, los valores que presentan mayor variabilidad, corresponden a las medidas   tomadas con la cinta m&eacute;trica, esto se debe en gran parte a que la escala de la   cinta est&aacute; en mil&iacute;metros, lo que implica que las d&eacute;cimas de mil&iacute;metros deben   ser aproximadas por la persona que realiza la medida.</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.2 Fotogrametr&iacute;a 2D    <br> </b>La adquisici&oacute;n de las im&aacute;genes faciales se    realiza en una escena con condiciones de iluminaci&oacute;n controladas y ajustadas a    las necesidades de la extracci&oacute;n autom&aacute;tica de las caracter&iacute;sticas del rostro.    Esto no es una limitante del sistema, ya que generalmente estas medidas se    realizan en consultorios o sitios cerrados, donde estas condiciones se pueden    controlar. Dentro de la configuraci&oacute;n de la geometr&iacute;a de la escena, el sujeto    est&aacute; sentado en un silla fija, en posici&oacute;n frontal a la c&aacute;mara fotogr&aacute;fica con    una separaci&oacute;n de dos metros aproximadamente. Para determinar las equivalencias    entre las dimensiones de los p&iacute;xeles de la imagen y el mundo real, se emplea un    patr&oacute;n de calibraci&oacute;n, ubicado al costado derecho del rostro del sujeto (<a href="#fig08">Figura   8</a>). Este patr&oacute;n est&aacute; compuesto de cuadros blancos sobre fondo negro. </font>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig08"></a><img src="/img/revistas/dyna/v77n162/a24fig08.gif">    <br>   Figura 8.</b> Patr&oacute;n de calibraci&oacute;n para fotogrametr&iacute;a 2D    <br>   <b>Figure 8.</b> Calibration pattern for 2D   photogrammetry</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El factor de conversi&oacute;n se determina contando   la cantidad de p&iacute;xeles que representan un cent&iacute;metro en la imagen y con este   valor se estima la correspondencia en mil&iacute;metros. La medida utilizada,   corresponde a la distancia entre los centros de masa de dos cuadros vecinos. El   factor de escala con el que se trabaja, se obtiene al calcular el valor medio   de las distancias calculadas de todos los cuadros visibles en la imagen. Por   ejemplo, para la imagen mostrada en   la <a href="#fig08">Figura 8</a>, 1mm = 3.85 p&iacute;xeles, &oacute; 1 p&iacute;xel =   0.259mm.La obtenci&oacute;n de las medidas antropom&eacute;tricas por medio de la   fotogrametr&iacute;a 2D, se realiza de forma autom&aacute;tica, empleando las t&eacute;cnicas de   extracci&oacute;n de caracter&iacute;sticas de la boca expuesto en la Secci&oacute;n 3 y los   algoritmos descritos en &#91;22,23&#93;. Se tomaron cinco fotograf&iacute;as de cada uno de   los individuos, y se realiz&oacute; el mismo procedimiento que en la antropometr&iacute;a   directa. La <a href="#tab03">Tabla   3</a> muestra las medidas obtenidas. No se tienen en cuenta todas las medidas   propuestas inicialmente, debido a que algunas de ellas corresponden a medidas   de superficie. Por lo tanto, no es posible obtenerlas a partir de una sola   imagen en 2D.</font></p>     ]]></body>
<body><![CDATA[<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab03"></a>Tabla 3.</b> Medidas   obtenidas por fotogrametr&iacute;a 2D    <br>   <b>Table 3.</b> Photogrammetry results using a 2D image</font>    <br>   <img src="/img/revistas/dyna/v77n162/a24tab03.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los   resultados en la medici&oacute;n muestran que la obtenci&oacute;n de las medidas de manera   autom&aacute;tica posee menor dispersi&oacute;n con respecto a la medici&oacute;n directa. Esto se   debe a la estandarizaci&oacute;n del m&eacute;todo y a la objetividad, producto del procesamiento   digital de la imagen. Este resultado de menor dispersi&oacute;n era de esperarse,   evidentemente la automatizaci&oacute;n de estos procesos elimina la subjetividad que   en este tipo de medidas introducen los operarios humanos. Para evaluar la   precisi&oacute;n de las medidas, se comparan los resultados obtenidos por esta t&eacute;cnica   con los resultados obtenidos con la t&eacute;cnica de antropometr&iacute;a directa. Se   calcula el error promedio (&aacute;e&ntilde;) y el error cuadr&aacute;tico medio (De), con sus magnitudes dadas en mil&iacute;metros. Los   valores son mostrados en   la <a href="#tab04">Tabla 4</a>, ellos evidencian la precisi&oacute;n del m&eacute;todo, con   errores promedio alrededor de 1mm y valores de dispersi&oacute;n menores a 1mm. Esto   nos permite sugerir que esta t&eacute;cnica es precisa y consistente, medici&oacute;n tras   medici&oacute;n. La gran desventaja de la t&eacute;cnica recae en su limitado campo de   acci&oacute;n, al no poder realizar mediciones de superficie. Esta limitaci&oacute;n no se   presenta, en la t&eacute;cnica de antropometr&iacute;a con im&aacute;genes tridimensionales.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab04"></a>Tabla 4.</b> Fotogrametr&iacute;a   2D vs Antropometr&iacute;a directa    <br>   <b>Table 4.</b> 2D photogrammetry vs. Direct anthropometry</font>    <br>   <img src="/img/revistas/dyna/v77n162/a24tab04.gif"></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.3 Antropometr&iacute;a con im&aacute;genes 3D    <br> </b>La    alternativa de soluci&oacute;n al problema antes mencionado es la utilizaci&oacute;n de    modelos tridimensionales del rostro, utilizando las t&eacute;cnicas presentadas en la Secci&oacute;n 3 y en &#91;27&#93;.    Siguiendo lo descrito en dicha secci&oacute;n, se reconstruy&oacute; el rostro de cada uno    de los individuos, utilizando un sistema de adquisici&oacute;n como el que se presenta    en    la <a href="#fig09">Figura 9</a>.    El sistema combina dos c&aacute;maras CCD (est&eacute;reo), separadas entre ellas a un metro    de distancia, y una fuente de luz estructurada. La fuente de luz estructurada    se obtiene a partir de un haz de l&aacute;ser de diodo, que pasa por un elemento    refractor, haciendo que este se proyecte como una l&iacute;nea. Un motor de paso se    encarga de mover un espejo que refleja el haz l&aacute;ser, haciendo posible el    barrido del objeto a adquirir. Este dispositivo de luz estructurada es la caja    negra sobre le escritorio en la <a href="#fig09">Figura 9</a>. El paciente se ubica a dos metros de la fuente de    luz estructurada. La densidad de la nube de puntos de la imagen reconstruida    depende de la resoluci&oacute;n de la c&aacute;mara, de la distancia al objeto y del paso de   barrido de la l&iacute;nea de luz estructurada. </font><font face="Verdana, Arial, Helvetica, sans-serif">     <p align="center"><font size="2"><b><a name="fig09"></a><img src="/img/revistas/dyna/v77n162/a24fig09.gif">    <br>   Figura 9.</b> Sistema de adquisici&oacute;n de im&aacute;genes 3D    ]]></body>
<body><![CDATA[<br>   <b>Figure 9.</b> 3D image acquisition system</font></p>     <p><font size="2">Sobre las   im&aacute;genes reconstruidas se realizaron las mismas medidas que en la antropometr&iacute;a   directa.   La <a href="#tab05">Tabla   5</a> muestra las medidas obtenidas. Los resultados en la medici&oacute;n antropom&eacute;trica   con im&aacute;genes tridimensionales muestran menor dispersi&oacute;n con respecto a las   medidas por antropometr&iacute;a directa. Esto es debido, entre otras razones, a que   las medidas son totalmente objetivas. Esta baja dispersi&oacute;n, reafirma la   importancia que esta tecnolog&iacute;a tiene para la realizaci&oacute;n de medidas en este   tipo de aplicaciones. Las medidas est&aacute;ndar utilizadas en la antropometr&iacute;a   facial son las obtenidas por medio de la antropometr&iacute;a directa, por esta raz&oacute;n,   en la <a href="#tab06">Tabla 6</a> se presentan el error promedio &aacute;e&ntilde; y el error cuadr&aacute;tico medio De (magnitudes dadas en mil&iacute;metros), de las medidas realizadas mediante   la antropometr&iacute;a con im&aacute;genes tridimensionales y la antropometr&iacute;a directa.</font></p>     <p align="center"><font size="2"><b><a name="tab05"></a>Tabla 5.</b> Medidas   antropom&eacute;tricas con im&aacute;genes 3D    <br>   <b>Table 5.</b> Anthropometry results using a 3D image</font>    <br>     <img src="/img/revistas/dyna/v77n162/a24tab05.gif"></p> </font>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab06"></a>Tabla 6.</b> Antropometr&iacute;a 3D vs Antropometr&iacute;a directa    <br>   <b>Table 6.</b> 3D Anthropometry vs. Direct anthropometry</font>    <br>   <img src="/img/revistas/dyna/v77n162/a24tab06.gif"></p> <font face="Verdana, Arial, Helvetica, sans-serif">     <p><font size="2" face="Geneva, Arial, Helvetica, sans-serif">Los valores mostrados en   la <a href="#tab06">Tabla 6</a>, evidencian la   precisi&oacute;n de esta t&eacute;cnica, con errores promedio menores a 0.8 mm y valores de   dispersi&oacute;n menores a 0.4 mm.   Estos valores permiten concluir que esta t&eacute;cnica es precisa, ya que adem&aacute;s de   presentar un error bajo, cuando se compara con la t&eacute;cnica de antropometr&iacute;a   directa, presenta un valor de dispersi&oacute;n mucho menor.</font></p>     <p><font size="2" face="Geneva, Arial, Helvetica, sans-serif">Finalmente,   al comparar las <a href="#tab04">tablas 4</a> y <a href="#tab06">6</a>, se concluye que la metodolog&iacute;a propuesta,   presenta mejor desempe&ntilde;o que la t&eacute;cnica de fotogrametr&iacute;a 2D. Lo que se   evidencia no s&oacute;lo por los valores de error promedio y de error cuadr&aacute;tico medio   m&aacute;s bajos, sino tambi&eacute;n por el mayor n&uacute;mero de medidas antropom&eacute;tricas que se   pueden realizar. Esto debido a la invariancia del m&eacute;todo con respecto a la   rotaci&oacute;n de la cabeza del sujeto, y gracias a que al utilizar dos im&aacute;genes de   intensidad, no se tienen los problemas de perspectiva que se presentan en la   fotogrametr&iacute;a 2D, que s&oacute;lo utiliza una. Tambi&eacute;n, al utilizar varias im&aacute;genes   2D, se logra reproducir la forma tridimensional de los rostros, lo que permite   realizar medidas en superficies.</font></p> </font>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>5. CONCLUSIONES </b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se ha propuesto un sistema de antropometr&iacute;a   facial utilizando im&aacute;genes tridimensionales, reconstruidas a partir de   m&uacute;ltiples vistas 2D. El sistema se evalu&oacute; en cinco sujetos. Sobre cada uno se   realizaron 8 medidas. Cada medida fue tomada cinco veces, con el fin de evaluar   la repetitividad. Con el objeto de evaluar los resultados, las medidas se   realizaron tambi&eacute;n por la t&eacute;cnica de antropometr&iacute;a directa y por la t&eacute;cnica de   fotogrametr&iacute;a 2D. Los resultados mostraron las bondades del sistema propuesto,   al ser comparados contra la t&eacute;cnica de fotogrametr&iacute;a 2D: mayor n&uacute;mero de   medidas antropom&eacute;tricas, mayor precisi&oacute;n y menor dispersi&oacute;n. Al compararse   contra la t&eacute;cnica de antropometr&iacute;a directa, la cual es considerada la medida   est&aacute;ndar, arroj&oacute; un error que en general fue inferior al mil&iacute;metro, con la   ventaja que las medidas presentan menor dispersi&oacute;n. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La regi&oacute;n facial de inter&eacute;s en este trabajo   fue la regi&oacute;n de la boca, por lo que el proceso de extracci&oacute;n de   caracter&iacute;sticas fue orientado hacia esta regi&oacute;n. Sin embargo, un gran n&uacute;mero de   los algoritmos y t&eacute;cnicas empleados, pueden extenderse para la extracci&oacute;n de otras   caracter&iacute;sticas faciales. Finalmente, es de anotar que un sistema de   antropometr&iacute;a facial como el presentado, puede tener m&uacute;ltiples aplicaciones:   determinaci&oacute;n de los &iacute;ndices de normalidad facial, planificaci&oacute;n de cirug&iacute;as y   seguimiento del proceso de cicatrizaci&oacute;n, desarrollo de modelos faciales   real&iacute;sticos para animaci&oacute;n por computador, etc. </font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>REFERENCIAS </b></font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>&#91;1&#93;</b> BOWYER, K.W., CHANG, K. AND FLYNN, P. A survey of approaches and challenges in 3D and multimodal 3D+2D face recognition. Computer Vision and Image Understanding, 101, 1-15, 2006.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000129&pid=S0012-7353201000020002400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;2&#93;</b> ANSARI, A.N. AND ABDEL-MOTTALEB, M. Automatic facial feature extraction and 3D face modeling using two orthogonal views with application to 3D face recognition. Pattern Recognition, 38, 2549-2563, 2005.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000130&pid=S0012-7353201000020002400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;3&#93;</b> ZHAO, W., CHELLAPPA, R., ROSENFELD, A. AND PHILLIPS, P. Face recognition: A literature survey. ACM Computing Surveys, 35(4), 399-458, 2003.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000131&pid=S0012-7353201000020002400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;4&#93;</b> PANTIC, M. AND ROTHKRANTZ, J.M. Automatic analysis of facial expressions: The state of the art. IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(12), 1424-1436, 2000.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000132&pid=S0012-7353201000020002400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;5&#93;</b> QUINTERO, C., CHAC&Oacute;N, J.A., MONTOYA, J. Y L&Oacute;PEZ, J.F. Antropometr&iacute;a facial en ni&ntilde;os entre 3 y 5 a&ntilde;os de la ciudad de Manizales. Reporte T&eacute;cnico, Manizales, Caldas: Universidad de Caldas, 1999.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000133&pid=S0012-7353201000020002400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;6&#93;</b> FARKAS, L.G., BRYSON, W. AND KLOTZ, J. Is photogrammetry of the face reliable? Plastic and Reconstructive surgery, 66, 1980.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000134&pid=S0012-7353201000020002400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;7&#93;</b> FARKAS, L.G. Antropometr&iacute;a normal y patol&oacute;gica en cabeza y cara. Cirug&iacute;a Pl&aacute;stica, Reconstructiva y Est&eacute;tica, 2, 1994.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000135&pid=S0012-7353201000020002400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;8&#93;</b> BLAIS, F. Rewiew of 20 years of range sensor development. Journal of Electronic Imaging, 13(1), 231-240, 2004.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000136&pid=S0012-7353201000020002400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;9&#93;</b> GHODDOUSI, H., EDLER, R., HAERS, P., WERTHEIM, D. AND GREENHILL D. Comparison of three methods of facial measurement. Int. Jour. Oral Maxillofac. Surg., 36, 250-258, 2007.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000137&pid=S0012-7353201000020002400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;10&#93;</b> CHANG, K.I., BOWYER, K.W. AND FLYNN, J.F. Multi-modal 2D and 3D biometrics for face recognition. Proceedings of IEEE International Workshop on Analysis and Modeling of Faces and Gestures (AMFG03). Nice, France , 187-194, October 2003.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000138&pid=S0012-7353201000020002400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;11&#93;</b> CARNICKÝ, J. AND CHORV&Aacute;T, D. JR. Three-dimensional measurement of human face with structured-light illumination. Measurement Science Review, 6(1), 1-4, 2006.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000139&pid=S0012-7353201000020002400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;12&#93;</b> BIANCHI, S.D., SPADAB, M.C., BIANCHI, L., VERZÈ, L. VEZZETTI, E., TORNINCASA, S. AND RAMIERI, G. Evaluation of scanning parameters for a surface colour laser scanner. Proceedings of the 18th International Congress and Exhibition: Computer Assisted Radiology and Surgery. Chicago, USA , 1162-1167, June 2004.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000140&pid=S0012-7353201000020002400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;13&#93;</b> DECARLO, D., METAXAS, D. AND STONE, M. An anthropometric face model using variational techniques. Proceedings SIGGRAPH, Orlando, USA, 67-74, July 1998.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000141&pid=S0012-7353201000020002400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;14&#93;</b> DUFFY, S., NOAR, J.H., EVANS, R.D. AND SANDERS, R. Three-dimensional analysis of the child cleft face. The Cleft Palate-Craniofacial Journal, 37(2), 137-144, 2000.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000142&pid=S0012-7353201000020002400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;15&#93;</b> CHANG, K.I., BOWYER, K.W. AND FLYNN, P.J. Multiple nose region matching for 3d face recognition under varying facial expression. IEEE Transactions on Pattern Analysis and Machine Intelligence, 28(10), 1695-1700, 2006.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000143&pid=S0012-7353201000020002400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;16&#93;</b> YAN, P. AND BOWYER, K.W. Biometric recognition using 3D ear shape. IEEE Transactions on Pattern Analysis and Machine Intelligence, 29(8), 1297-1308, 2007.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000144&pid=S0012-7353201000020002400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;17&#93;</b> MILLARD D.R. Cleft Craft: The Evolution of its Surgery, Vol I. Unilateral deformity. Little, Brown and company, Boston, Massachussets, 1976.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000145&pid=S0012-7353201000020002400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;18&#93;</b> KRIMMEL, M., KLUBA, S., BACHER, M., DIETZ, K., REINERT, S., FARKAS, L., BRYSON, W., AND KLOTZ, J. Digital surface photogrammetry for anthropometric analysis of the cleft infant face. Cleft Palate-Craniofacial Journal, 43, 2006.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000146&pid=S0012-7353201000020002400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;19&#93;</b> FERRARIO, V.F., SFORZA, C., DELLAVIA, C., TARTAGLIA, G.M. COLOMBO, A. AND CARÙ, A. A quantitative three-dimensional assessment of soft tissue facial asymmetry of cleft lip and palate in adult patients. The Journal of Craniofacial Surgery, 14, 2003.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000147&pid=S0012-7353201000020002400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;20&#93;</b> RAO, R. AND MERSEREAU R. Lip modeling for visual speech recognition. Proceedings of 28th Annual Asilomar Conference on Signals, Systems, and Computer, Pacific Grove, USA, 2, November 1994.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000148&pid=S0012-7353201000020002400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;21&#93;</b> STIEFELHAGEN, R. YANG, J. AND MEIER, U. Real time lip tracking for lip reading. Proceedings of Eurospech, Rhodes, Greece , September 1997.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000149&pid=S0012-7353201000020002400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;22&#93;</b> SALAZAR A. AND PRIETO, F. Extracci&oacute;n y clasificaci&oacute;n de posturas labiales en ni&ntilde;os entre 5 y 10 a&ntilde;os en la ciudad de Manizales. DYNA: Revista de la Facultad de Minas Universidad Nacional de Colombia, 150, 175-188, 2006.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000150&pid=S0012-7353201000020002400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;23&#93;</b> COIANIZ, T., TORRESANI, L. AND CAPRILE B. 2D deformable models for visual speech analysis. Tech Report, Istituto per la Ricerca Scientifica e Tecnologica, 1996.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000151&pid=S0012-7353201000020002400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;24&#93;</b> SALAZAR, A., HERN&Aacute;NDEZ, J. AND PRIETO, F. Automatic quantitative mouth shape analysis. Lecture Notes in Computer Science, 4673, 416-423, 2007.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000152&pid=S0012-7353201000020002400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;25&#93;</b> KASS, M., WITKIN, A. AND TERZOPOULOS, D. Snakes: Active contour models. Int. J. Computer Vision, 1(4), 321-331, 1987.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000153&pid=S0012-7353201000020002400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;26&#93;</b> HERN&Aacute;NDEZ, J., PRIETO, F. AND REDARCE, T. Fast active contour for sampling. In CERMA 06: Proceedings of the Electronics, Robotics and Automotive Mechanics Conference, Cuernavaca, M&eacute;xico, 9-13, Octubre 2006.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000154&pid=S0012-7353201000020002400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;27&#93;</b> SALAZAR, A., S&Aacute;NCHEZ, L. AND PRIETO, F. Sistema de adquisici&oacute;n de im&aacute;genes de rango con base en est&eacute;reo-activo. DYNA: Revista de la Facultad de Minas, Universidad Nacional de Colombia, 153, 301-311, 2007. </font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000155&pid=S0012-7353201000020002400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BOWYER]]></surname>
<given-names><![CDATA[K.W.]]></given-names>
</name>
<name>
<surname><![CDATA[CHANG]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[FLYNN]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey of approaches and challenges in 3D and multimodal 3D+2D face recognition.]]></article-title>
<source><![CDATA[Computer Vision and Image Understanding]]></source>
<year>2006</year>
<volume>101</volume>
<page-range>1-15</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ANSARI]]></surname>
<given-names><![CDATA[A.N.]]></given-names>
</name>
<name>
<surname><![CDATA[ABDEL-MOTTALEB]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic facial feature extraction and 3D face modeling using two orthogonal views with application to 3D face recognition.]]></article-title>
<source><![CDATA[Pattern Recognition]]></source>
<year>2005</year>
<volume>38</volume>
<page-range>2549-2563</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ZHAO]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
<name>
<surname><![CDATA[CHELLAPPA]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[ROSENFELD]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[PHILLIPS]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Face recognition:: A literature survey.]]></article-title>
<source><![CDATA[ACM Computing Surveys]]></source>
<year>2003</year>
<volume>35</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>399-458</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PANTIC]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[ROTHKRANTZ]]></surname>
<given-names><![CDATA[J.M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic analysis of facial expressions: The state of the art. IEEE Transactions on Pattern]]></article-title>
<source><![CDATA[Analysis and Machine Intelligence]]></source>
<year>2000</year>
<volume>22</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>1424-1436</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[QUINTERO]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[CHACÓN]]></surname>
<given-names><![CDATA[J.A.]]></given-names>
</name>
<name>
<surname><![CDATA[MONTOYA]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[LÓPEZ]]></surname>
<given-names><![CDATA[J.F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Antropometría facial en niños entre 3 y 5 años de la ciudad de Manizales.: Reporte Técnico]]></source>
<year>1999</year>
<publisher-loc><![CDATA[Manizales^eCaldas Caldas]]></publisher-loc>
<publisher-name><![CDATA[Universidad de Caldas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FARKAS]]></surname>
<given-names><![CDATA[L.G.]]></given-names>
</name>
<name>
<surname><![CDATA[BRYSON]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
<name>
<surname><![CDATA[KLOTZ]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Is photogrammetry of the face reliable?]]></article-title>
<source><![CDATA[Plastic and Reconstructive surgery]]></source>
<year>1980</year>
<volume>66</volume>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FARKAS]]></surname>
<given-names><![CDATA[L.G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Antropometría normal y patológica en cabeza y cara]]></article-title>
<source><![CDATA[Cirugía Plástica, Reconstructiva y Estética]]></source>
<year>1994</year>
<volume>2</volume>
</nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BLAIS]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rewiew of 20 years of range sensor development.]]></article-title>
<source><![CDATA[Journal of Electronic Imaging]]></source>
<year>2004</year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>231-240</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GHODDOUSI]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[EDLER]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[HAERS]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[WERTHEIM]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[GREENHILL]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comparison of three methods of facial measurement.]]></article-title>
<source><![CDATA[Int. Jour. Oral Maxillofac. Surg.]]></source>
<year>2007</year>
<volume>36</volume>
<page-range>250-258</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CHANG]]></surname>
<given-names><![CDATA[K.I.]]></given-names>
</name>
<name>
<surname><![CDATA[BOWYER]]></surname>
<given-names><![CDATA[K.W.]]></given-names>
</name>
<name>
<surname><![CDATA[FLYNN]]></surname>
<given-names><![CDATA[J.F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Multi-modal 2D and 3D biometrics for face recognition.]]></source>
<year>2003</year>
<conf-name><![CDATA[ Proceedings of IEEE International Workshop on Analysis and Modeling of Faces and Gestures]]></conf-name>
<conf-loc>Nice </conf-loc>
<page-range>187-194</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CARNICKÝ]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[CHORVÁT]]></surname>
<given-names><![CDATA[D. JR.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Three-dimensional measurement of human face with structured-light illumination.]]></article-title>
<source><![CDATA[Measurement Science Review]]></source>
<year>2006</year>
<volume>6</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-4</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BIANCHI]]></surname>
<given-names><![CDATA[S.D.]]></given-names>
</name>
<name>
<surname><![CDATA[SPADAB]]></surname>
<given-names><![CDATA[M.C.]]></given-names>
</name>
<name>
<surname><![CDATA[BIANCHI]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[VERZÈ]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[VEZZETTI]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[TORNINCASA]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[RAMIERI]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluation of scanning parameters for a surface colour laser scanner.]]></source>
<year>June</year>
<month> 2</month>
<day>00</day>
<conf-name><![CDATA[ Proceedings of the 18th International Congress and Exhibition: Computer Assisted Radiology and Surgery.]]></conf-name>
<conf-loc>Chicago </conf-loc>
<page-range>1162-1167</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DECARLO]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[METAXAS]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[STONE]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An anthropometric face model using variational techniques]]></article-title>
<source><![CDATA[Proceedings]]></source>
<year>July</year>
<month> 1</month>
<day>99</day>
<conf-name><![CDATA[ SIGGRAPH]]></conf-name>
<conf-loc>Orlando </conf-loc>
<page-range>67-74</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DUFFY]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[NOAR]]></surname>
<given-names><![CDATA[J.H.]]></given-names>
</name>
<name>
<surname><![CDATA[EVANS]]></surname>
<given-names><![CDATA[R.D.]]></given-names>
</name>
<name>
<surname><![CDATA[SANDERS]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Three-dimensional analysis of the child cleft face.]]></article-title>
<source><![CDATA[The Cleft Palate-Craniofacial Journal,]]></source>
<year>2000</year>
<volume>37</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>137-144</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CHANG]]></surname>
<given-names><![CDATA[K.I.]]></given-names>
</name>
<name>
<surname><![CDATA[BOWYER]]></surname>
<given-names><![CDATA[K.W.]]></given-names>
</name>
<name>
<surname><![CDATA[FLYNN]]></surname>
<given-names><![CDATA[P.J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multiple nose region matching for 3d face recognition under varying facial expression.]]></article-title>
<source><![CDATA[IEEE Transactions on Pattern Analysis and Machine Intelligence,]]></source>
<year>2006</year>
<volume>28</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1695-1700</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YAN]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[BOWYER]]></surname>
<given-names><![CDATA[K.W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Biometric recognition using 3D ear shape.]]></article-title>
<source><![CDATA[IEEE Transactions on Pattern Analysis and Machine Intelligence,]]></source>
<year>2007</year>
<volume>29</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>1297-1308</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MILLARD]]></surname>
<given-names><![CDATA[D.R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Cleft Craft:: The Evolution of its Surgery]]></source>
<year>1976</year>
<volume>Vol I</volume>
<publisher-loc><![CDATA[Boston^eMassachussets Massachussets]]></publisher-loc>
<publisher-name><![CDATA[Little, Brown and company]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KRIMMEL]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[KLUBA]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[BACHER]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[DIETZ]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[REINERT]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[FARKAS]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[BRYSON]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
<name>
<surname><![CDATA[KLOTZ]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Digital surface photogrammetry for anthropometric analysis of the cleft infant face.]]></source>
<year>2006</year>
<volume>43</volume>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FERRARIO]]></surname>
<given-names><![CDATA[V.F.]]></given-names>
</name>
<name>
<surname><![CDATA[SFORZA]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[DELLAVIA]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[TARTAGLIA]]></surname>
<given-names><![CDATA[G.M.]]></given-names>
</name>
<name>
<surname><![CDATA[COLOMBO]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[CARÙ]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A quantitative three-dimensional assessment of soft tissue facial asymmetry of cleft lip and palate in adult patients.]]></article-title>
<source><![CDATA[The Journal of Craniofacial Surgery]]></source>
<year>2003</year>
<volume>14</volume>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RAO]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[MERSEREAU]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Lip modeling for visual speech recognition.]]></source>
<year></year>
<conf-name><![CDATA[ Proceedings of 28th Annual Asilomar Conference on Signals, Systems, and Computer,]]></conf-name>
<conf-date>2, November 1994</conf-date>
<conf-loc>Pacific Grove </conf-loc>
</nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[STIEFELHAGEN]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[YANG]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[MEIER]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Real time lip tracking for lip reading.]]></article-title>
<source><![CDATA[Proceedings]]></source>
<year>Sept</year>
<month>em</month>
<day>be</day>
<conf-name><![CDATA[ Eurospech]]></conf-name>
<conf-loc>Rhodes </conf-loc>
</nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SALAZAR]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[PRIETO]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Extracción y clasificación de posturas labiales en niños entre 5 y 10 años en la ciudad de Manizales.]]></article-title>
<source><![CDATA[DYNA: Revista de la Facultad de Minas Universidad Nacional de Colombia]]></source>
<year>2006</year>
<numero>150</numero>
<issue>150</issue>
<page-range>175-188</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[COIANIZ]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[TORRESANI]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[CAPRILE]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<source><![CDATA[2D deformable models for visual speech analysis. Tech Report,]]></source>
<year>1996</year>
<publisher-name><![CDATA[Istituto per la Ricerca Scientifica e Tecnologica]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SALAZAR]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[HERNÁNDEZ]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[PRIETO]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic quantitative mouth shape analysis.]]></article-title>
<source><![CDATA[Lecture Notes in Computer Science]]></source>
<year>2007</year>
<numero>4673</numero>
<issue>4673</issue>
<page-range>416-423</page-range></nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KASS]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[WITKIN]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[TERZOPOULOS]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Snakes:: Active contour models.]]></article-title>
<source><![CDATA[Int. J. Computer Vision]]></source>
<year>1987</year>
<volume>1</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>321-331</page-range></nlm-citation>
</ref>
<ref id="B26">
<label>26</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HERNÁNDEZ]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[PRIETO]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[REDARCE]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Fast active contour for sampling.]]></source>
<year></year>
<conf-name><![CDATA[ Proceedings of the Electronics, Robotics and Automotive Mechanics Conference]]></conf-name>
<conf-date>9-13, Octubre 2006</conf-date>
<conf-loc>Cuernavaca </conf-loc>
</nlm-citation>
</ref>
<ref id="B27">
<label>27</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SALAZAR]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[SÁNCHEZ]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[PRIETO]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Sistema de adquisición de imágenes de rango con base en estéreo-activo.]]></article-title>
<source><![CDATA[DYNA: Revista de la Facultad de Minas, Universidad Nacional de Colombia,]]></source>
<year>2007</year>
<numero>153</numero>
<issue>153</issue>
<page-range>301-311</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
