<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0120-5609</journal-id>
<journal-title><![CDATA[Ingeniería e Investigación]]></journal-title>
<abbrev-journal-title><![CDATA[Ing. Investig.]]></abbrev-journal-title>
<issn>0120-5609</issn>
<publisher>
<publisher-name><![CDATA[Facultad de Ingeniería, Universidad Nacional de Colombia.]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0120-56092009000100012</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Identificación biométrica utilizando imágenes infrarrojas de la red vascular de la cara dorsal de la mano]]></article-title>
<article-title xml:lang="en"><![CDATA[Biometric identification using infrared dorsum hand vein images]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Motato Toro]]></surname>
<given-names><![CDATA[Óscar Fernando]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Loaiza Correa]]></surname>
<given-names><![CDATA[Humberto]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad del Valle Facultad de Ingeniería grupo de Investigación de Percepción y Sistemas Inteligentes - PSI]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad del Valle Facultad de Ingeniería ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>04</month>
<year>2009</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>04</month>
<year>2009</year>
</pub-date>
<volume>29</volume>
<numero>1</numero>
<fpage>90</fpage>
<lpage>100</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0120-56092009000100012&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0120-56092009000100012&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0120-56092009000100012&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[La necesidad manifiesta de mejorar los controles de acceso y seguridad han orientado el diseño de los nuevos sistemas de identificación personal hacia la utilización de rasgos biométricos, fisiológicos y comportamentales, que garanticen niveles de desempeño cada vez más altos. Con esta motivación, se presenta el desarrollo y evaluación de un sistema computacional para realizar los procedimientos de registro y validación de identidad de personas utilizando imágenes de las venas de la cara dorsal de la mano, compuesto por un módulo hardware de bajo costo para la adquisición de imágenes infrarrojas, utilizando una cámara de video convencional, lentes ópticos, fuentes de iluminación infrarroja controladas y un frame grabber; y un módulo software para la visualización y captura de las imágenes, selección de las regiones de interés, segmentación y extracción, descripción y clasificación de características. Finalmente, para evaluar la similitud entre las imágenes se implementa y evalúa una etapa basada en redes neuronales artificiales, permitiendo concluir que el indicador biométrico es lo suficientemente discriminante, y otra basada en correlación que, sobre una base de datos de 100 imágenes, determina la eficiencia máxima de sistema en 95,72% en un umbral igual a 65%, y 8,57% y 0% para las tasas de falsa aceptación (FAR) y falso rechazo (FRR) respectivamente.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The evident need for improving access and safety controls has orientated the development of new personal identification systems towards using biometric, physiological and behavioral features guaranteeing increasing greater levels of performance. Motivated by this trend, the development and implementation of a computational tool for recording and validating people’s identity using dorsum hand vein images is presented here. A low-cost hardware module for acquiring infrared images was thus designed; it consisted of a conventional video-camera, optical lenses, controlled infrared illumination sources and a frame grabber. The accompanying software module was concerned with visualizing and capturing images, selecting regions of interest, pattern segmentation in the region and extracting, describing and classifying these features. An artificial neuron network approach was implemented for pattern recognition, resulting in it proving the biometric indicator to be sufficiently discriminating, and a correlation-based approach using a 100 image database for static characterisation, determined the system’s maximum efficiency to be 95.72% at a threshold equal to 65. False acceptance rate (FAR) was 8.57% and false rejection rate (FRR) was 0% at this threshold.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[sistemas de identificación personal]]></kwd>
<kwd lng="es"><![CDATA[rasgos biométricos]]></kwd>
<kwd lng="es"><![CDATA[registro y validación de identidad]]></kwd>
<kwd lng="es"><![CDATA[procesamiento de imágenes]]></kwd>
<kwd lng="es"><![CDATA[reconocimiento de patrones]]></kwd>
<kwd lng="en"><![CDATA[personal identification system]]></kwd>
<kwd lng="en"><![CDATA[biometric feature]]></kwd>
<kwd lng="en"><![CDATA[identity recording and validation]]></kwd>
<kwd lng="en"><![CDATA[image processing]]></kwd>
<kwd lng="en"><![CDATA[pattern recognition]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font size = "2" face = "verdana">     <p>    <center><font size = "4"><b>Identificaci&oacute;n biom&eacute;trica utilizando im&aacute;genes infrarrojas de la red vascular de la cara dorsal de la mano </b></font></center></p>     <p>    <center><font size = "3"><b> Biometric identification using infrared dorsum hand vein images </b></font></center></p>     <p><b> &Oacute;scar Fernando Motato Toro<sup>1</sup> y Humberto Loaiza Correa<sup>2</sup> </b></p>     <p>    <br><sup>1</sup> Ingeniero electr&oacute;nico, Universidad del Valle, Colombia. Investigador, grupo de Investigaci&oacute;n de Percepci&oacute;n y Sistemas Inteligentes – PSI, Facultad de Ingenier&iacute;a, Universidad del Valle, Colombia. <a href = "mailto:ofmotato@univalle.edu.co">ofmotato@univalle.edu.co</a>, <a href = "mailto:ofmotato@gmail.com">ofmotato@gmail.com</a>     <br><sup>2</sup> Ingeniero electricista. M.Sc., en Autom&aacute;tica, Universidad del Valle, Colombia. Ph.D., en Rob&oacute;tica y Visi&oacute;n Artificial, l'Universit&eacute; d'Evry, Francia. Profesor yitular, Facultad de Ingenier&iacute;a, Universidad del Valle, Colombia. <a href = "mailto:hloaiza@univalle.edu.co">hloaiza@univalle.edu.co</a> </p> <hr size = "1">     <p><b> RESUMEN </b></p>     ]]></body>
<body><![CDATA[<p>La necesidad manifiesta de mejorar los controles de acceso y seguridad han orientado el dise&ntilde;o de los nuevos sistemas de identificaci&oacute;n personal hacia la utilizaci&oacute;n de rasgos biom&eacute;tricos, fisiol&oacute;gicos y comportamentales, que garanticen niveles de desempe&ntilde;o cada vez m&aacute;s altos. Con esta motivaci&oacute;n, se presenta el desarrollo y evaluaci&oacute;n de un sistema computacional para realizar los procedimientos de registro y validaci&oacute;n de identidad de personas utilizando im&aacute;genes de las venas de la cara dorsal de la mano, compuesto por un m&oacute;dulo hardware de bajo costo para la adquisici&oacute;n de im&aacute;genes infrarrojas, utilizando una c&aacute;mara de video convencional, lentes &oacute;pticos, fuentes de iluminaci&oacute;n infrarroja controladas y un frame grabber; y un m&oacute;dulo software para la visualizaci&oacute;n y captura de las im&aacute;genes, selecci&oacute;n de las regiones de inter&eacute;s, segmentaci&oacute;n y extracci&oacute;n, descripci&oacute;n y clasificaci&oacute;n de caracter&iacute;sticas. Finalmente, para evaluar la similitud entre las im&aacute;genes se implementa y eval&uacute;a una etapa basada en redes neuronales artificiales, permitiendo concluir que el indicador biom&eacute;trico es lo suficientemente discriminante, y otra basada en correlaci&oacute;n que, sobre una base de datos de 100 im&aacute;genes, determina la eficiencia m&aacute;xima de sistema en 95,72% en un umbral igual a 65%, y 8,57% y 0% para las tasas de falsa aceptaci&oacute;n (FAR) y falso rechazo (FRR) respectivamente.</p>     <p><b>Palabras clave:</b> sistemas de identificaci&oacute;n personal, rasgos biom&eacute;tricos, registro y validaci&oacute;n de identidad, procesamiento de im&aacute;genes, reconocimiento de patrones.</p> <hr size = "1">     <p><b> ABSTRACT </b></p>     <p>The evident need for improving access and safety controls has orientated the development of new personal identification systems towards using biometric, physiological and behavioral features guaranteeing increasing greater levels of performance. Motivated by this trend, the development and implementation of a computational tool for recording and validating people’s identity using dorsum hand vein images is presented here. A low-cost hardware module for acquiring infrared images was thus designed; it consisted of a conventional video-camera, optical lenses, controlled infrared illumination sources and a frame grabber. The accompanying software module was concerned with visualizing and capturing images, selecting regions of interest, pattern segmentation in the region and extracting, describing and classifying these features. An artificial neuron network approach was implemented for pattern recognition, resulting in it proving the biometric indicator to be sufficiently discriminating, and a correlation-based approach using a 100 image database for static characterisation, determined the system’s maximum efficiency to be 95.72% at a threshold equal to 65. False acceptance rate (FAR) was 8.57% and false rejection rate (FRR) was 0% at this threshold.</p>     <p><b>Keywords:</b> personal identification system, biometric feature, identity recording and validation, image processing, pattern recognition.</p> <hr size = "1">     <p>Recibido: mayo 27 de 2008     <br>Aceptado: marzo 2 de 2009</p>     <p><font size = "3"><b> Introducci&oacute;n </b></font></p>     <p>La identificaci&oacute;n personal se ha basado en sistemas tradicionales como las tarjetas inteligentes y n&uacute;meros de identificaci&oacute;n personal (PIN), sin embargo estos m&eacute;todos ofrecen seguridad limitada y son poco fiables dada la facilidad para ser copiados, en el caso de los documentos, y violados, en el caso de las claves y n&uacute;meros de identificaci&oacute;n.</p>     <p>La identificaci&oacute;n biom&eacute;trica permite minimizar estas desventajas ya que explota el hecho de que ciertas caracter&iacute;sticas biol&oacute;gicas son singulares e inalterables, haci&eacute;ndola m&aacute;s confiable y segura que los passwords. Adem&aacute;s, es m&aacute;s f&aacute;cil de usar ya que el usuario no tiene nada que recordar, que cambiar o que perder.</p>     ]]></body>
<body><![CDATA[<p>Los sistemas biom&eacute;tricos de referencia inmediata han basado su proceso de identificaci&oacute;n en el reconocimiento de huellas dactilares, el iris del ojo y la firma, pero ante la necesidad creciente de mejorar los controles de acceso y seguridad, estas soluciones han empezado a ser desplazadas por una nueva gama de sistemas de mayor desempe&ntilde;o que basan su proceso de autentificaci&oacute;n en el reconocimiento de nuevos rasgos fisiol&oacute;gicos.</p>     <p>El reconocimiento a trav&eacute;s de las venas de la mano es un nuevo miembro de la familia biom&eacute;trica. Esta t&eacute;cnica apareci&oacute; en 1990 y no atrajo mucha atenci&oacute;n en la d&eacute;cada, s&oacute;lo a partir del a&ntilde;o 2001 aparece con mayor frecuencia en diversas publicaciones (Badawi, A., 2007).</p>     <p>Las venas del dorso de la mano tienen m&uacute;ltiples caracter&iacute;sticas que las hacen &uacute;nicas y, dado que se requiere que la sangre est&eacute; fluyendo para registrar la imagen o patr&oacute;n, es casi imposible la violaci&oacute;n de identidad con el uso de artefactos de suplantaci&oacute;n. Adem&aacute;s, las investigaciones de Fujitsu (Fujitsu Laboratories Ltd., 2003), demuestran que el patr&oacute;n de las venas es &uacute;nico en cada individuo, incluso en el caso de gemelos id&eacute;nticos; as&iacute; mismo, son diferentes las venas en la mano derecha y en la mano izquierda. Tambi&eacute;n hay que tener en cuenta que el patr&oacute;n de las venas no cambia con el crecimiento, simplemente se ampl&iacute;a manteniendo el mismo patr&oacute;n.</p>     <p>Los sistemas basados en esta t&eacute;cnica se posicionan como un referente en el avance tecnol&oacute;gico de soluciones de control de accesos y seguridad que motiva la propuesta de este proyecto, en el que se implementa y eval&uacute;a el desempe&ntilde;o global de un sistema de identificaci&oacute;n personal de muy bajo costo mediante el an&aacute;lisis de im&aacute;genes infrarrojas de la red vascular de la cara dorsal de la mano.</p>     <p>Para esto, el art&iacute;culo se divide en las siguientes secciones: </p>     <p><i>Fundamentaci&oacute;n te&oacute;rica:</i> se hace la descripci&oacute;n b&aacute;sica de los atributos de la radiaci&oacute;n infrarroja y los efectos producidos sobre el tejido humano que permiten la obtenci&oacute;n de im&aacute;genes del patr&oacute;n vascular.</p>     <p><i>Descripci&oacute;n de la aplicaci&oacute;n:</i> se describen los m&oacute;dulos, hardware y software, que integran el sistema computacional.</p>     <p><i>Plataforma de experimentaci&oacute;n:</i> se describen los componentes f&iacute;sicos utilizados en el sistema de adquisici&oacute;n de im&aacute;genes infrarrojas y el principio de funcionamiento de cada uno de los bloques que componen el sistema hardware.</p>     <p><i>Software del sistema:</i> se hace la descripci&oacute;n funcional del software del sistema mediante la presentaci&oacute;n de un diagrama de bloques y la definici&oacute;n y explicaci&oacute;n de las rutinas de cada etapa.</p>     <p><i>Evaluaci&oacute;n global:</i> se presentan las pruebas que validan el funcionamiento del sistema de identificaci&oacute;n y se hace el an&aacute;lisis general, indicando las caracter&iacute;sticas, alcances y limitaciones de desarrollo.</p>     ]]></body>
<body><![CDATA[<p><i>Conclusiones:</i> se consignan las conclusiones obtenidas de la investigaci&oacute;n.</p>     <p><font size = "3"><b> Fundamentaci&oacute;n te&oacute;rica </b></font></p>     <p>Los sistemas de autenticaci&oacute;n basados en im&aacute;genes de la mano usan los patrones de la red vascular, de la palma o de la cara dorsal, como dato de identificaci&oacute;n personal.</p>     <p>Este rasgo fisiol&oacute;gico es &uacute;til como indicador biom&eacute;trico ya que satisface las propiedades de: universalidad, puesto que todas la personas poseen el rasgo; unicidad, debido que estos patrones son &uacute;nicos en cada persona, incluso diferentes entre gemelos, y son distintos en la mano derecha y la izquierda; permanencia, pues no cambian con el crecimiento, simplemente se ampl&iacute;an manteniendo el mismo patr&oacute;n; y cuantificaci&oacute;n, ya que se pueden describir, representar y clasificar usando t&eacute;cnicas de adquisici&oacute;n y procesamiento de im&aacute;genes infrarrojas (Fujitsu Laboratories Ltd., 2003; Wang y Leedham, 2006).</p>     <p><b> Obtenci&oacute;n de las im&aacute;genes del patr&oacute;n de las venas de la mano </b></p>     <p>De todo el espectro electromagn&eacute;tico, el ojo humano solamente puede detectar un peque&ntilde;o segmento de la banda comprendido entre los 400 nm y 700 nm aproximadamente y denominado la banda del espectro visible, sin embargo generalmente existe mucha m&aacute;s informaci&oacute;n &uacute;til en las otras bandas del espectro (Wang y Leedham, 2006).</p>     <p>Por ejemplo, en luz visible, la estructura de las venas de la mano, tanto en su cara palmar como dorsal, es poco perceptible, y su visibilidad var&iacute;a significativamente dependiendo de factores tales como la edad, los niveles de grasa subcut&aacute;nea, la temperatura y humedad en el ambiente, la actividad f&iacute;sica y la posici&oacute;n de la mano. Otras caracter&iacute;sticas de la superficie cut&aacute;nea tales como lunares, verrugas, cicatrices, pigmentaci&oacute;n y vellos pueden oscurecer la imagen (Cross y C.L., 1995).</p>     <p>Afortunadamente, el uso de im&aacute;genes infrarrojas permite ver un contraste entre los vasos sangu&iacute;neos y el resto de la piel, adem&aacute;s de eliminar algunos rasgos no deseados de la superficie cut&aacute;nea y del entorno.</p>     <p><b> Im&aacute;genes en el infrarrojo cercano, NIR </b></p>     <p>Dos atributos est&aacute;n asociados a este principio. En primer lugar, biol&oacute;gicamente existe una “ventana espectral” que se extiende desde los 700 nm hasta los 900 nm aproximadamente en que la luz incidente con longitud de onda dentro de ese rango puede penetrar profundamente en los tejidos. En segundo lugar, tal como se muestra en la <a href="#fig1">Figura 1</a>, el nivel de absorci&oacute;n espectral de la hemoglobina desoxigenada presenta un punto m&aacute;ximo en la regi&oacute;n del espectro infrarrojo cercano (Fujitsu Laboratories Ltd., 2003).</p>      ]]></body>
<body><![CDATA[<p>    <center><a name="fig1"><img src="img/revistas/iei/v29n1/1a12f1.jpg"></a></center></p>      <p>Aprovechando estos principios de penetrabilidad y absorci&oacute;n es posible obtener im&aacute;genes en el espectro infrarrojo cercano donde el patr&oacute;n de la red vascular aparece m&aacute;s oscuro que el resto de la superficie de la mano.</p>     <p><font size = "3"><b> Descripci&oacute;n del sistema biom&eacute;trico </b></font></p>     <p>La herramienta computacional integra los m&oacute;dulos de adquisici&oacute;n y procesamiento de im&aacute;genes, es decir, la etapa de captura del rasgo fisiol&oacute;gico con las etapas de generaci&oacute;n, clasificaci&oacute;n y almacenamiento de plantillas de identificaci&oacute;n de usuario.</p>     <p>Como se muestra en la <a href="#fig2">Figura 2</a>, el prototipo experimental est&aacute; compuesto por una c&aacute;mara convencional de bajo costo con sensor CCD, un lente &oacute;ptico infrarrojo, y fuentes de iluminaci&oacute;n infrarroja controladas. Adem&aacute;s se cuenta con un frame grabber para obtener la representaci&oacute;n digital de la imagen y un computador personal para la implementaci&oacute;n de las rutinas de visualizaci&oacute;n y de captura.</p>      <p>    <center><a name="fig2"><img src="img/revistas/iei/v29n1/1a12f2.jpg"></a></center></p>      <p>El software del sistema se divide en cinco m&oacute;dulos: m&oacute;dulo de visualizaci&oacute;n y captura, m&oacute;dulo de preprocesamiento, m&oacute;dulo de procesamiento, m&oacute;dulo de generaci&oacute;n de templates y m&oacute;dulo de registro y verificaci&oacute;n. En el desarrollo de las etapas se utilizan los toolbox de adquisici&oacute;n y procesamiento digital de im&aacute;genes y el toolbox de redes neuronales artificiales de la plataforma de programaci&oacute;n Matlab, siendo posible migrar el c&oacute;digo fuente a una aplicaci&oacute;n abierta y multiplataforma.</p>     <p>El sistema completo se describe mediante el diagrama de bloques de la <a href="#fig3">Figura 3</a>.</p>      ]]></body>
<body><![CDATA[<p>    <center><a name="fig3"><img src="img/revistas/iei/v29n1/1a12f3.jpg"></a></center></p>      <p><font size = "3"><b> Plataforma de experimentaci&oacute;n </b></font></p>     <p>En este trabajo la plataforma de experimentaci&oacute;n (<a href="#fig4">Figura 4</a>) est&aacute; compuesta por una c&aacute;mara de video convencional (monocrom&aacute;tica) con respuesta espectral extendida hasta los 1.200 nm y un filtro &oacute;ptico infrarrojo en el que su porcentaje de transmisi&oacute;n es significativo a partir de los 700 nm y casi nulo para longitudes de onda menores (<a href="#fig5">Figura 5</a>), ideal para bloquear la luz visible.</p>      <p>    <center><a name="fig4"><img src="img/revistas/iei/v29n1/1a12f4.jpg"></a></center></p>       <p>    <center><a name="fig5"><img src="img/revistas/iei/v29n1/1a12f5.jpg"></a></center></p>      <p>Para aprovechar el efecto de absorci&oacute;n de radiaci&oacute;n infrarroja de las venas de la de la mano se construye una de fuente de luz de estado s&oacute;lido formada por diodos leds infrarrojos cercanos de alta intensidad, cuyas especificaciones t&eacute;cnicas muestran que la longitud de onda donde el mayor porcentaje de intensidad de radia-ci&oacute;n emitida se da en los 760 nm. Se utilizan para iluminar la mano en sus dos caras, palmar y dorsal, tomando como referencia el modelo propuesto en Zhao <i>et &aacute;l.</i>, (2007).</p>     <p>La superficie palmar se irradia con una matriz de 40 diodos y se identifica en el prototipo experimental como la matriz de iluminaci&oacute;n 2 (<a href="#fig4">Figura 4</a>). Este m&eacute;todo de iluminaci&oacute;n, a contraluz, permite obtener a trav&eacute;s de la c&aacute;mara una imagen digital de las venas de la cara dorsal, producto de la radiaci&oacute;n infrarroja que logra atravesar la superficie de la mano, en contraste con aquella que es absorbida por la red vascular de dicha cara.</p>     ]]></body>
<body><![CDATA[<p>Para tener una superficie uniformemente iluminada se irradia frontalmente la cara dorsal con dos arreglos lineales, cada uno compuesto por cinco de los diodos referenciados, que se ubican alrededor y a la altura de la lente de la c&aacute;mara. Se identifican en la <a href="#fig4">Figura 4</a> como la matriz de iluminaci&oacute;n 1. Con esto se logra la captura de im&aacute;genes con un realce en el contraste entre el patr&oacute;n de inter&eacute;s y el resto de la superficie como consecuencia del fen&oacute;meno de absorci&oacute;n de radiaci&oacute;n infrarroja, ya que la hemoglobina desoxigenada absorbe parte de estos rayos, reduciendo su tasa de reflexi&oacute;n y ocasionando que el patr&oacute;n vascular se vea m&aacute;s oscuro que el resto de la superficie.</p>     <p>Finalmente, la c&aacute;mara con el filtro &oacute;ptico acoplado se conecta a un equipo de c&oacute;mputo a trav&eacute;s de una tarjeta DVR gen&eacute;rica.</p>     <p><font size = "3"><b> Software del sistema </b></font></p>     <p>El sistema de identificaci&oacute;n biom&eacute;trico propuesto permite realizar las tareas de registro y validaci&oacute;n de autenticidad de personas a trav&eacute;s del patr&oacute;n que forma la red vascular de la cara dorsal de la mano en cada individuo.</p>     <p>A trav&eacute;s de una interfaz de usuario el administrador del sistema puede operar la herramienta en dos modos diferentes. En modo de registro, si el objetivo es ingresar un nuevo usuario a la base de datos, y en modo de validaci&oacute;n, si se desea verificar la identidad de un usuario previamente registrado.</p>      <p>    <center><a name="fig6"><img src="img/revistas/iei/v29n1/1a12f6.jpg"></a></center></p>      <p>Los detalles algor&iacute;tmicos del sistema se representan en el diagrama de flujo de la <a href="#fig7">Figura 7</a>, seguido de la descripci&oacute;n de sus principales m&oacute;dulos constitutivos.</p>      <p>    <center><a name="fig7"><img src="img/revistas/iei/v29n1/1a12f7.jpg"></a></center></p>       ]]></body>
<body><![CDATA[<p>    <center><a name="fig8"><img src="img/revistas/iei/v29n1/1a12f8.jpg"></a></center></p>      <p><b> M&oacute;dulo de visualizaci&oacute;n y captura de la imagen </b></p>     <p>La primera etapa se encarga de la adquisici&oacute;n de im&aacute;genes desde el dispositivo de captura al entorno de trabajo de Matlab, utilizando para ello las funciones del toolbox de adquisici&oacute;n de im&aacute;genes.</p>     <p>Las funciones que incorpora este toolbox permiten acceder directamente a los controladores de los dispositivos registrados por Windows, desde web cam hasta frame grabbers de uso industrial, facilitando la detecci&oacute;n autom&aacute;tica del hardware de video disponible, la configuraci&oacute;n de las propiedades del hardware y la previsualizaci&oacute;n y captura de im&aacute;genes y video (IASToolbox, 2007).</p>     <p>El procedimiento para la selecci&oacute;n y configuraci&oacute;n del dispositivo de captura se describe mediante el siguiente diagrama de flujo.</p>     <p>El objetivo es obtener im&aacute;genes monocrom&aacute;ticas de 320 x 240 pixeles con una profundidad de 8 bits por pixel. En la <a href="#fig9">Figura 9</a> se muestran dos im&aacute;genes obtenidas con el sistema de adquisici&oacute;n descrito, una en espectro visible y otra en espectro infrarrojo cercano.</p>      <p>    <center><a name="fig9"><img src="img/revistas/iei/v29n1/1a12f9.jpg"></a></center></p>      <p>En la imagen de la mano, definida en el espectro visible, las venas de la superficie dorsal son pr&aacute;cticamente imperceptibles. Bajo condiciones &oacute;ptimas de iluminaci&oacute;n artificial y utilizando un filtro &oacute;ptico con longitud de onda de corte en 715 nm, se obtiene una representaci&oacute;n adecuada del patr&oacute;n de las venas de la cara dorsal de la mano.</p>     ]]></body>
<body><![CDATA[<p><b> M&oacute;dulo de Preprocesamiento </b></p>     <p>Para lograr exactitud y confiabilidad en la extracci&oacute;n de los patrones de las venas de la mano, se debe garantizar que estos patrones pertenezcan a regi&oacute;n similar en cada una de las im&aacute;genes. La ubicaci&oacute;n de la regi&oacute;n de inter&eacute;s en una misma zona es dif&iacute;cil, y generalmente se utiliza un dispositivo de fijaci&oacute;n para forzar a la mano a quedar en una posici&oacute;n de captura que facilite referenciar puntos para delimitar la regi&oacute;n.</p>     <p>Sin embargo, en este proyecto se implementa un m&eacute;todo que no requiere dispositivos de fijaci&oacute;n externos, lo que lo hace m&aacute;s c&oacute;modo, flexible y robusto ante peque&ntilde;os desplazamientos y rotaciones que puedan presentarse en el proceso de captura de las im&aacute;genes. El m&eacute;todo, propuesto en Lin y Fan (2003), toma las uniones que se forman entre los dedos como puntos de referencia para delimitar una regi&oacute;n localizada dentro la cara dorsal, en la cual se concentra la mayor informaci&oacute;n del indicador biom&eacute;trico.</p>      <p>    <center><a name="fig10"><img src="img/revistas/iei/v29n1/1a12f10.jpg"></a></center></p>      <p>Inicialmente se separa la superficie de la mano del fondo, utilizando la umbralizaci&oacute;n como t&eacute;cnica de segmentaci&oacute;n. Como se muestra en la <a href="#fig11">Figura 11</a>, en las im&aacute;genes almacenadas en la base de datos se pueden distinguir los tres objetos de inter&eacute;s que las constituyen: el fondo de la imagen, el contorno de la mano y la red vascular.</p>      <p>    <center><a name="fig11"><img src="img/revistas/iei/v29n1/1a12f11.jpg"></a></center></p>      <p>El punto umbral se determina a partir del an&aacute;lisis directo de los histogramas de las im&aacute;genes a tratar, ya que presentan una caracter&iacute;stica bimodal que permite identificar en ellos el modo que representa el objeto y el modo que representa el fondo. Utilizando el m&eacute;todo del modo, se tiene:</p>      <p>    ]]></body>
<body><![CDATA[<center><a name="fig12"><img src="img/revistas/iei/v29n1/1a12f12.jpg"></a></center></p>      <p>Las im&aacute;genes binarias tienen dos regiones separadas por un perfil de nivel de gris vertical que facilita la extracci&oacute;n de la frontera que separa el objeto de su fondo. Para este procedimiento se utiliza la conectividad de los pixeles de la imagen con el fin de obtener una matriz con la ubicaci&oacute;n espacial de todos los pixeles de borde, asociando los pixeles no nulos al objeto y los nulos a su fondo.</p>     <p>Con la matriz obtenida se construye un diagrama de distribuci&oacute;n de pixeles usando la relaci&oacute;n C(i) vs. i, donde C(i) es la coordenada columna del i-&eacute;simo pixel de borde e i su &iacute;ndice, para identificar los puntos de referencia FW1, FW2, FW3 y FW4.</p>     <p>Luego, la mano se rota un &aacute;ngulo &theta;, definido como el &aacute;ngulo que se forma entre el segmento <img src="img/revistas/iei/v29n1/1a12s1.jpg"> y el eje imaginario horizontal, para eliminar las influencias en la rotaci&oacute;n de la mano al momento de su captura. Con esto, la nueva orientaci&oacute;n de la l&iacute;nea <img src="img/revistas/iei/v29n1/1a12s1.jpg"> es horizontal.</p>      <p>    <center><a name="fig13"><img src="img/revistas/iei/v29n1/1a12f13.jpg"></a></center></p>      <p>La regi&oacute;n de inter&eacute;s se define como la regi&oacute;n cuadrada de tama&ntilde;o fijo que se ubica paralela al eje <img src="img/revistas/iei/v29n1/1a12s1.jpg"> y equidistante de su punto medio.</p>     <p>Como se muestra en la <a href="#fig14">Figura 14</a>, la ROI, extra&iacute;da de las im&aacute;genes de cuatro usuarios y tomadas en instantes de tiempo diferentes, est&aacute; ubicada en una posici&oacute;n similar en cada una de las im&aacute;genes, validando la repetibilidad de la t&eacute;cnica.</p>      <p>    <center><a name="fig14"><img src="img/revistas/iei/v29n1/1a12f14.jpg"></a></center></p>      ]]></body>
<body><![CDATA[<p>A la imagen formada por la ROI se aplica un filtro mediano para remover el ruido de tipo impulsivo que com&uacute;nmente se encuentra en im&aacute;genes de tipo infrarrojo, un filtro promedio para atenuar la contribuci&oacute;n del ruido de alta densidad, y, para acentuar el contraste entre la red vascular y el resto de la superficie se normalizan los niveles de gris utilizando valores preestablecidos para su media y su varianza, siguiendo el procedimiento establecido en Wang y Leedham (2006).</p>      <p>    <center><img src="img/revistas/iei/v29n1/1a12e1.jpg"></center></p>       <p>    <center><img src="img/revistas/iei/v29n1/1a12e1.jpg"></center></p>      <p>I (x,y) denota los valores de intensidad en la posici&oacute;n (x,y) en la regi&oacute;n de inter&eacute;s. El valor medio y la varianza de la imagen son denotadas como <b>&micro;</b> y <b>&sigma;<sup>2</sup></b> respectivamente.</p>     <p>La imagen normalizada I’(x,y) se obtiene con una operaci&oacute;n de bajo nivel, pixel por pixel, usando la ecuaci&oacute;n 3, donde <b>&micro;<sub>d</sub></b> y <b>&sigma;<sup>2</sup><sub>d</sub></b> son valores deseados para la media y la varianza, respectivamente.</p>      <p>    <center><img src="img/revistas/iei/v29n1/1a12e3.jpg"></center></p>      <p>El resultado del mejoramiento de las regiones de inter&eacute;s se presenta en la <a href="#fig15">Figura 15</a>.</p>      ]]></body>
<body><![CDATA[<p>    <center><a name="fig15"><img src="img/revistas/iei/v29n1/1a12f15.jpg"></a></center></p>      <p><b> M&oacute;dulo de procesamiento </b></p>     <p>En este m&oacute;dulo tiene lugar la extracci&oacute;n del patr&oacute;n vascular a partir de la imagen contenida en la regi&oacute;n de inter&eacute;s ROI. Para ello se propone un algoritmo de umbralizaci&oacute;n local, para separar la regi&oacute;n que contiene el patr&oacute;n que forman las venas del resto de la superficie, y un algoritmo para representar la estructura del patr&oacute;n por medio de su esqueleto.</p>     <p>Dado que los niveles de gris que representan el contorno de la vena var&iacute;an de acuerdo a la posici&oacute;n en la imagen, el uso de las t&eacute;cnicas de umbralizaci&oacute;n global no es adecuado para este prop&oacute;sito. Por dicha raz&oacute;n, se implementa un algoritmo de umbralizaci&oacute;n adaptativa en el que se asigna un valor de umbral para cada pixel basado en los niveles de gris de sus vecinos. Los umbrales corresponden al valor promedio de los niveles de gris de una vecindad de NxN alrededor de cada pixel. As&iacute;, la funci&oacute;n de transformaci&oacute;n queda definida como:</p>      <p>    <center><img src="img/revistas/iei/v29n1/1a12e4.jpg"></center></p>      <p>donde f(x,y) es la imagen original, f<sub>prom</sub>(x,y) es la imagen promedio de f(x,y) y f<sub>B</sub>(x,y) es la imagen binaria resultante.</p>     <p>Como el tama&ntilde;o de los vasos sangu&iacute;neos aumenta con el crecimiento, s&oacute;lo la estructura del patr&oacute;n vascular es usada como caracter&iacute;stica de reconocimiento individual. Con este procedimiento se remueven los pixeles sobre las fronteras de los objetos pero no permite aislarlos. Los pixeles restantes forman el esqueleto de la imagen. Este procedimiento puede ser expresado en t&eacute;rminos de erosiones que se pueden ver como:</p>      <p>    ]]></body>
<body><![CDATA[<center><img src="img/revistas/iei/v29n1/1a12e5.jpg"></center></p>      <p> Con, </p>      <p>    <center><img src="img/revistas/iei/v29n1/1a12e6.jpg"></center></p>      <p>donde B es el elemento estructurante y   indica la k-&eacute;sima erosi&oacute;n sucesiva de la imagen A.</p>      <p>    <center><img src="img/revistas/iei/v29n1/1a12e7.jpg"></center></p>      <p>Finalmente, K es la &uacute;ltima iteraci&oacute;n antes que la erosi&oacute;n lleve a eliminaci&oacute;n de un segmento, en otras palabras:</p>      <p>    <center><img src="img/revistas/iei/v29n1/1a12e8.jpg"></center></p>      ]]></body>
<body><![CDATA[<p>En la <a href="#fig16">Figura 16</a> se muestra el esqueleto del patr&oacute;n vascular despu&eacute;s de aplicar el algoritmo de segmentaci&oacute;n y de esqueletizaci&oacute;n. Como se observa, la estructura vascular es correctamente extra&iacute;da del contorno de la vena.</p>      <p>    <center><a name="fig16"><img src="img/revistas/iei/v29n1/1a12f16.jpg"></a></center></p>      <p><b> M&oacute;dulo de generaci&oacute;n de templates </b></p>     <p>En esta etapa se busca obtener un vector con una menor cantidad de componentes a los contenidos en la imagen original pero que mantengan la informaci&oacute;n discriminante del patr&oacute;n.</p>     <p>Para extraer las caracter&iacute;sticas que suministran la informaci&oacute;n cualitativa de la estructura del patr&oacute;n vascular se realiza un sub-muestreo del esqueleto del patr&oacute;n.</p>     <p>Las subim&aacute;genes se crean como resultado de los cruces del patr&oacute;n con las l&iacute;neas de una grilla imaginaria. Los eventos se registran tanto para las l&iacute;neas divisorias horizontales como verticales. Esto permite representar la estructura del patr&oacute;n por dos matrices en las que un cruce se representa con un uno l&oacute;gico y con un cero l&oacute;gico la ausencia del mismo.</p>     <p>La <a href="#fig17">Figura 17</a> muestra el resultado del submuestreo, con grillas de 15 x 15 pixeles, sobre una imagen de 150 x 150 pixeles. Las dos matrices se concatenan formando un vector que en adelante se le llamar&aacute; el vector de caracter&iacute;sticas del patr&oacute;n de las venas de la mano.</p>      <p>    <center><a name="fig17"><img src="img/revistas/iei/v29n1/1a12f17.jpg"></a></center></p>      ]]></body>
<body><![CDATA[<p><b> M&oacute;dulo de registro y verificaci&oacute;n </b></p>     <p>En esta &uacute;ltima etapa de procesamiento el prop&oacute;sito es el de obtener un indicador de autenticidad para el reconocimiento autom&aacute;tico de personas.</p>     <p>Con el objeto de realizar un an&aacute;lisis comparativo del desempe&ntilde;o y aplicabilidad de t&eacute;cnicas basadas en modelos conexionistas y en la teor&iacute;a de decisi&oacute;n, se propone la implementaci&oacute;n de esta &uacute;ltima etapa utilizando redes neuronales artificiales y correlaci&oacute;n de los descriptores del patr&oacute;n.</p>     <p><i>Redes neuronales:</i> se utiliza una arquitectura multicapa en la que la capa de entrada recibe el vector de caracter&iacute;sticas del patr&oacute;n de las venas de la mano, usando una grilla de submuestreo de 15x15 pixeles. Para la capa de salida, el n&uacute;mero de neuronas es igual al n&uacute;mero de clases que desean ser reconocidas, es decir, una por cada usuario. Dado que cuanto mayor es la cantidad de usuarios m&aacute;s grande se hace la red, se utiliza una codificaci&oacute;n binaria (cuatro bits) para representar las clases.</p>     <p>Para el entrenamiento se utilizan cinco im&aacute;genes por usuario. La etapa de aprendizaje est&aacute; basada en una variaci&oacute;n del algoritmo de gradiente descendente back propagation, catalogado como algoritmo r&aacute;pido, basado en t&eacute;cnicas de optimizaci&oacute;n num&eacute;ricas (RNAToolbox, 2007).</p>     <p>Con una capa oculta de once neuronas se obtiene la variaci&oacute;n del error de entrenamiento que se consigna en la <a href="#tab1">Tabla 1</a>.</p>      <p>    <center><a name="tab1"><img src="img/revistas/iei/v29n1/1a12t1.jpg"></a></center></p>      <p>Los resultados muestran que el error de entrenamiento mantiene un orden muy bajo, validando la elecci&oacute;n.</p>     <p><i>Correlaci&oacute;n:</i> la clasificaci&oacute;n por correlaci&oacute;n es un m&eacute;todo de reconocimiento basado en la teor&iacute;a de decisi&oacute;n que no requiere una etapa previa de entrenamiento. El proceso de clasificaci&oacute;n se basa en el c&aacute;lculo del coeficiente de correlaci&oacute;n entre el vector de caracter&iacute;sticas del patr&oacute;n de una imagen de entrada aleatoria con los de la totalidad de im&aacute;genes de registro almacenadas en la base de datos. Este coeficiente se define como:</p>      ]]></body>
<body><![CDATA[<p>    <center><img src="img/revistas/iei/v29n1/1a12e9.jpg"></center></p>      <p>Donde x = 0,1,2,... <i>M</i> - 1,y = 0,1,2,...,<i>N</i> -1,<img src="img/revistas/iei/v29n1/1a12s2.jpg"> es el valor promedio de los pixeles en w y   es el valor promedio de f en la regi&oacute;n coincidente con la ubicaci&oacute;n de w. El coeficiente de correlaci&oacute;n <i>&gamma;(x,y)</i> est&aacute; escalado en el rango &#91;-1, 1&#93;, independiente de los cambios de escala en la amplitud de f y w.</p>     <p>En el reconocimiento por teor&iacute;a de decisi&oacute;n, un patr&oacute;n aleatorio x se dice que pertenece a una clase wi cuando:</p>      <p>    <center><img src="img/revistas/iei/v29n1/1a12e10.jpg"></center></p>      <p>En este caso, una imagen de validaci&oacute;n pertenecer&aacute; a la clase en la que el coeficiente de correlaci&oacute;n con cualquiera de sus im&aacute;genes de registro presente el mayor valor num&eacute;rico.</p>     <p>Dado que el costo computacional de esta operaci&oacute;n es bajo comparado con el esfuerzo requerido por las redes neuronales, el sub-muestreo de la imagen de entrada es menor y por tanto el vector de caracter&iacute;sticas puede contener mayor informaci&oacute;n del patr&oacute;n</p>     <p><font size = "3"><b> Evaluaci&oacute;n global </b></font></p>     <p><b> Constituci&oacute;n de la base de datos </b></p>     ]]></body>
<body><![CDATA[<p>Las im&aacute;genes son tomadas para un conjunto voluntario de personas en un ambiente normal de oficina (25 – 30 °C) y un m&oacute;dulo de captura en el que se tiene un ambiente de iluminaci&oacute;n controlado. La edad del grupo de participantes var&iacute;a entre los 18 y 52 a&ntilde;os, involucra mujeres y hombres de conjuntos raciales diversos. Actualmente la base de datos cuenta con 20 sujetos. De cada voluntario se extraen 5 im&aacute;genes de la mano izquierda, formando un total de 100 registros. En la <a href="#tab2">Tabla 2</a> se muestra la distribuci&oacute;n de edad y sexo de los sujetos registrados.</p>      <p>    <center><a name="tab2"><img src="img/revistas/iei/v29n1/1a12t2.jpg"></a></center></p>      <p>Aunque la base de datos se extiende gradualmente, las muestras actuales forman un conjunto suficiente de datos con los cuales es factible llevar a cabo las pruebas de rendimiento y generalizar sobre los resultados obtenidos.</p>     <p><b> Protocolo de adquisici&oacute;n </b></p>     <p>El procedimiento para la captura de las im&aacute;genes de registro consiste en la ubicaci&oacute;n de la mano izquierda sobre la gu&iacute;a dispuesta en el m&oacute;dulo de adquisici&oacute;n. El proceso se repite hasta que se tomen cinco im&aacute;genes por cada voluntario. Para esto se sugiere que en cada toma el voluntario retire la mano de la gu&iacute;a y la coloque de nuevo en la posici&oacute;n que sienta m&aacute;s c&oacute;moda.</p>     <p>Cuando se opera en modo de validaci&oacute;n, el sistema s&oacute;lo pide una imagen, que se captura de acuerdo al protocolo descrito.</p>     <p><b> Resultados estad&iacute;sticos </b></p>     <p>La evaluaci&oacute;n de los sistemas biom&eacute;tricos se realiza en t&eacute;rminos de las funciones de las tasas FRR y FAR (Jain <i>et &aacute;l.</i>, 2000). La tasa de falso rechazo permite medir la probabilidad de que un usuario registrado sea rechazado por el sistema si no sobrepasa el punto umbral de similitud establecido para validar la identidad. De manera an&aacute;loga, la tasa de falsa aceptaci&oacute;n permite medir la probabilidad de que un usuario no registrado sea aceptado por el sistema si sobrepasa dicho umbral.</p>     <p>La validaci&oacute;n del sistema, con im&aacute;genes aleatorias diferentes a las im&aacute;genes de registro, permite encontrar los puntos de operaci&oacute;n con los cuales establecer el rendimiento global del sistema propuesto.</p>     ]]></body>
<body><![CDATA[<p><b> Redes neuronales </b></p>     <p>Tomando cinco im&aacute;genes de validaci&oacute;n por cada usuario registrado, se tiene que la FRR para la aproximaci&oacute;n por redes neuronales tiene la forma que se muestra en la <a href="#fig18">Figura 18</a>.</p>      <p>    <center><a name="fig18"><img src="img/revistas/iei/v29n1/1a12f18.jpg"></a></center></p>      <p>Este resultado permite apreciar que la tasa de rechazo es significativa para umbrales altos, mayores al 90%, producto de la adecuada clasificaci&oacute;n realizada por la red neuronal.</p>     <p>Tomando cinco im&aacute;genes de validaci&oacute;n por cada usuario registrado, la FAR para la aproximaci&oacute;n por redes neuronales tiene la forma que se muestra en la <a href="#fig19">Figura 19</a>.</p>      <p>    <center><a name="fig19"><img src="img/revistas/iei/v29n1/1a12f19.jpg"></a></center></p>      <p>En este resultado se hace evidente una desventaja del uso de redes neuronales como clasificador del sistema biom&eacute;trico. El sistema presenta una alta tasa de falsa aceptaci&oacute;n para umbrales comprendidos entre el 0% y 70%, y en menor medida para umbrales entre el 80% y el 98%. Esto se debe a que por su capacidad de generalizaci&oacute;n la red neuronal asocia con alta precisi&oacute;n un patr&oacute;n no registrado con alguna de las clases definidas en el m&oacute;dulo de registro.</p>     <p>Como medida &uacute;nica para caracterizar el grado de seguridad de un sistema biom&eacute;trico se suele utilizar la tasa de error de intersecci&oacute;n, definida en el punto donde la FAR y la FRR toman el mismo valor. Utilizando el clasificador basado en redes neuronales, el error de intersecci&oacute;n tiene la forma definida por la <a href="#fig20">Figura 20</a>.</p>      ]]></body>
<body><![CDATA[<p>    <center><a name="fig20"><img src="img/revistas/iei/v29n1/1a12f20.jpg"></a></center></p>      <p>El punto de intersecci&oacute;n permite definir, como criterio &uacute;nico para la validaci&oacute;n de autenticidad, que exista un &iacute;ndice de pertenencia del 99% entre el patr&oacute;n de validaci&oacute;n y alguna de las clases registradas. Con este porcentaje se obtiene un rendimiento del 8,42%, medido en t&eacute;rminos de la FRR, y de 14,29% en t&eacute;rminos de la FAR. El desempe&ntilde;o de identificaci&oacute;n es del 91,43%.</p>     <p><b> Correlaci&oacute;n </b></p>     <p>En la implementaci&oacute;n de la etapa de clasificaci&oacute;n por correlaci&oacute;n, el coeficiente de correlaci&oacute;n proporcionar&aacute; la probabilidad de que un patr&oacute;n de entrada aleatorio pertenezca a la clase en la que el coeficiente presenta el mayor valor num&eacute;rico. Para la misma base de datos empleada en el apartado anterior, se tiene la tasa de falso rechazo representada por la <a href="#fig21">Figura 21</a>.</p>      <p>    <center><a name="fig21"><img src="img/revistas/iei/v29n1/1a12f21.jpg"></a></center></p>      <p>El resultado mostrado permite apreciar que la tasa de falso rechazo presenta un comportamiento m&aacute;s suave en comparaci&oacute;n a la obtenida con redes neuronales. En este caso no es evidente un punto cr&iacute;tico en donde la FRR cambie de forma significativa; sin embargo, a partir del 60% inicia su crecimiento.</p>     <p>Por el resultado obtenido es necesario definir el error de intersecci&oacute;n que indique el umbral de seguridad del sistema ya que en la gr&aacute;fica de falso rechazo no es evidente el punto adecuado. Para determinar el error de intersecci&oacute;n se debe generar previamente la tasa de falsa aceptaci&oacute;n con las mismas condiciones establecidas para la aproximaci&oacute;n con redes neuronales.</p>      <p>    ]]></body>
<body><![CDATA[<center><a name="fig22"><img src="img/revistas/iei/v29n1/1a12f22.jpg"></a></center></p>      <p>El error de intersecci&oacute;n (<a href="#fig23">Figura 23</a>) permite establecer el nivel de seguridad en un rango de probabilidades de pertenencia definido entre el 50% y el 70%. En la <a href="#tab3">Tabla 3</a> se muestra el rendimiento del sistema en funci&oacute;n de la FRR y la FAR para el rango de umbrales establecido.</p>      <p>    <center><a name="fig23"><img src="img/revistas/iei/v29n1/1a12f23.jpg"></a></center></p>       <p>    <center><a name="tab3"><img src="img/revistas/iei/v29n1/1a12t3.jpg"></a></center></p>      <p>Un &iacute;ndice de desempe&ntilde;o definido entre el 55% y 60% ofrece un rendimiento de clasificaci&oacute;n del 100%; sin embargo, son l&iacute;mites bajos, y el establecer un umbral de aceptaci&oacute;n m&aacute;s alto implica el desmejoramiento del rendimiento del sistema. De la <a href="#tab3">Tabla 3</a> se observa que un &iacute;ndice de desempe&ntilde;o ubicado en el 65% no genera un desmejoramiento cr&iacute;tico, siendo el sugerido para esta aplicaci&oacute;n.</p>     <p>Las curvas representadas en las <a href="#fig21">Figuras 21 a 23</a> exhiben una topolog&iacute;a similar a las documentadas en las referencias bibliogr&aacute;ficas de soporte (Badawi, A., 2007; Lin, L. &amp; Fan, K. C., 2003; y Tanaka, T. &amp; Kubo, N., 2004). Adem&aacute;s, los &iacute;ndices de desempe&ntilde;o se encuentran en el mismo orden que los obtenidos en la bibliograf&iacute;a citada, tal como se muestra en la <a href="#tab4">Tabla 4</a>.</p>      <p>    <center><a name="tab4"><img src="img/revistas/iei/v29n1/1a12t4.jpg"></a></center></p>      ]]></body>
<body><![CDATA[<p><b> Condiciones de excepci&oacute;n </b></p>     <p>Del sistema de adquisici&oacute;n de im&aacute;genes infrarrojas no todas las muestras que se obtienen re&uacute;nen las condiciones que permite realizar sobre ellas las etapas de procesamiento y registro o validaci&oacute;n ya que no brindan informaci&oacute;n discriminante del patr&oacute;n (<a href="#fig24">Figura 24</a>). Este fen&oacute;meno aparece principalmente en superficies dorsales muy gruesas, en las cuales la radiaci&oacute;n infrarroja no penetra totalmente; en superficies muy delgadas, en las que la radiaci&oacute;n atraviesa totalmente y satura el sensor de la c&aacute;mara, y aquellas con exceso de vellos sobre la superficie dorsal.</p>      <p>    <center><a name="fig24"><img src="img/revistas/iei/v29n1/1a12f24.jpg"></a></center></p>      <p><font size = "3"><b> Conclusiones </b></font></p>     <p>Con el desarrollo de este trabajo se logr&oacute; implementar un sistema biom&eacute;trico constituido por un m&oacute;dulo hardware para la adquisici&oacute;n de im&aacute;genes infrarrojas y m&oacute;dulo software de procesamiento digital de im&aacute;genes y de reconocimiento de patrones, capaz de realizar las tareas de captura, registro y validaci&oacute;n de autenticidad de personas utilizando los patrones de la red vascular de la cara dorsal de la mano.</p>     <p>Las c&aacute;maras de video dise&ntilde;adas para operar en el espectro infrarrojo, cercano o lejano, son de alto costo y orientadas a un mercado especializado; no obstante, en este proyecto se logr&oacute; dise&ntilde;ar un sistema de adquisici&oacute;n infrarrojo cercano de bajo costo, utilizando una c&aacute;mara convencional con sensor CCD, fuentes infrarrojas cercanas y un filtro infrarrojo, obteniendo los resultados esperados para la aplicaci&oacute;n.</p>     <p>La localizaci&oacute;n y extracci&oacute;n de una regi&oacute;n de inter&eacute;s en la superficie dorsal de la mano reduce el &aacute;rea de procesamiento de la imagen y concentra en una  regi&oacute;n m&aacute;s peque&ntilde;a la informaci&oacute;n significativa del indicador biom&eacute;trico. Adem&aacute;s, el m&eacute;todo propuesto garantiza la extracci&oacute;n de la regi&oacute;n de inter&eacute;s en una zona similar para cada una de las im&aacute;genes, evita el uso de dispositivos de fijaci&oacute;n para centrar la mano en una posici&oacute;n deseada y elimina las influencias ocasionadas por peque&ntilde;os desplazamientos y rotaciones que puedan presentarse en la captura de las im&aacute;genes.</p>     <p>La esqueletizaci&oacute;n del patr&oacute;n permite depurar la informaci&oacute;n contenida en el contorno de las venas de la mano, conservando solamente la informaci&oacute;n de su estructura. As&iacute; se logra independizar la extracci&oacute;n de caracter&iacute;sticas del grosor del patr&oacute;n vascular.</p>     <p>La etapa de clasificaci&oacute;n por redes neuronales permiti&oacute; validar que el indicador biom&eacute;trico es lo suficientemente discriminante para el conjunto de usuarios de la base de datos. Sin embargo, su uso en este tipo de sistemas din&aacute;micos se hace impr&aacute;ctico en la medida en que la base de datos crece, ya que un nuevo registro implica el crecimiento de la red y un reentrenamiento.</p>     ]]></body>
<body><![CDATA[<p>El desempe&ntilde;o global del sistema de identificaci&oacute;n biom&eacute;trica fue evaluado sobre una base de datos de 100 muestras adquiridas de forma aleatoria en diversos tiempos. El rendimiento de autenticaci&oacute;n fue estimado en t&eacute;rminos de las tasas de falso rechazo (FRR) y falsa aceptaci&oacute;n (FAR), siendo en el mejor de los casos del 100% en un umbral de similitud de hasta el 60% y de 91,43% y de 85,71% para umbrales de 65% y 70%, respectivamente. Comparada esta eficiencia con las documentadas en algunas de las referencias que caracterizan sus sistemas en estos t&eacute;rminos, se puede establecer que los resultados se encuentran en el mismo orden que los obtenidos en la bibliograf&iacute;a citada, lo que le aumenta validez al sistema propuesto.</p>     <p>Este trabajo de investigaci&oacute;n se posiciona como un referente en el desarrollo de sistemas de identificaci&oacute;n, robustos e higi&eacute;nicos, cuya referencia comercial se perfila como la tecnolog&iacute;a m&aacute;s moderna utilizada hoy en la banca . Los resultados recogidos desde 2005 en el banco Tokio–Mitsubishi (Jap&oacute;n) y recientemente en Bradesco (Brasil), muestran altos &iacute;ndices de desempe&ntilde;o y de aceptaci&oacute;n por parte de los usuarios respecto a tecnolog&iacute;as basadas en reconocimiento del iris, la huella y la voz.</p>     <p>Adem&aacute;s, en la literatura consultada no se ha encontrado a nivel nacional un reporte que abarque el desarrollo completo y una evaluaci&oacute;n global, con una base de datos amplia, de un sistema de estas caracter&iacute;sticas.</p>     <p>Finalmente, se debe aclarar que las im&aacute;genes contenidas en la base de datos son tomadas en un ambiente controlado, donde los voluntarios son totalmente cooperativos, por lo que en un ambiente de validaci&oacute;n externo el rendimiento de autenticaci&oacute;n deber&iacute;a ser menor.</p>     <p><font size = "3"><b> Bibliograf&iacute;a </b></font></p>     <!-- ref --><p>Badawi, A., Hand Vein Biometric Verification Prototype: A Testing Performance and Patterns Similarity., International Journal of Biomedical Sciences, 2007, pp. 141-148.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000218&pid=S0120-5609200900010001200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Cross, J., y C.L., Thermographic Imaging of the Subcutaneus Vascular Network of the Back the Hand for Biometric Identification., Institute of Electrical and Electronics Engineers 29th Annual 1995 International Carnahan Conference, 1995, pp. 20-35.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000219&pid=S0120-5609200900010001200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Fujitsu Laboratories Ltd., Palm Vein Authentication Technology and its Applications. ,Retrieved from <a href="http://www.fujitsu.com/downloads/GLOBAL/labs/papers/palmvein.pdf" target="_blank">www.fujitsu.com/downloads/GLOBAL/labs/papers/palmvein.pdf</a>, 2003.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000220&pid=S0120-5609200900010001200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>IASToolbox., Image Adquisition System Toolbox for use with Matlab., Matlab Mathworks, 2007.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000221&pid=S0120-5609200900010001200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Jain, A., Hong, L., Pankanti, S., Biometrics: Promising Frontiers for Emernging Identification Market., Retrieved from <a href="http://www.cse.msu.edu/publications/tech/TR/MSU-CSE-00-2.ps.gz" target="_blank">www.cse.msu.edu/publications/tech/TR/MSU-CSE-00-2.ps</a>, 2000.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000222&pid=S0120-5609200900010001200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Lin, L., Fan, K. C., Biometric Verification Using Thermal Images of Palm-dorsa Vein-patterns., 16th IPPR Conference on Computer Vision, Graphics and Image Processing (CVGIP 2003), 2003, pp. 188-195.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000223&pid=S0120-5609200900010001200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>RNAToolbox., Neural Network Toolbox For Use with MATLAB., Matlab Mathworks, 2007.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000224&pid=S0120-5609200900010001200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Tanaka, T., Kubo, N., Biometric Authentication by Hand Vein Patterns., SICE Annual Conference in Sapporo, Hokkaido Institute of Tecnology, Japan , 2004, pp. 49-253.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000225&pid=S0120-5609200900010001200008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Wang, L., Leedham, G., Near- and Far- Infrared Imaging for Vein Pattern Biometrics., Proceedings of the IEEE International Conference on Video and Signal Based Surveillance (AVSS'06), 2006, pp. 1-6.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000226&pid=S0120-5609200900010001200009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Zhao, S., Wang, Y., Wang, Y., Extracting Hand Vein Patterns from Low-Quality Images: A New Biometric Technique Using Low Cost Devices., Fourth International Conference on Image and Graphics, IEEE , 2007, pp. 667-671.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000227&pid=S0120-5609200900010001200010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Badawi]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Hand Vein Biometric Verification Prototype: A Testing Performance and Patterns Similarity]]></article-title>
<source><![CDATA[International Journal of Biomedical Sciences]]></source>
<year>2007</year>
<page-range>141-148</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cross]]></surname>
<given-names><![CDATA[J., y C.L.]]></given-names>
</name>
</person-group>
<source><![CDATA[Thermographic Imaging of the Subcutaneus Vascular Network of the Back the Hand for Biometric Identification]]></source>
<year></year>
<conf-name><![CDATA[ 29th Annual 1995 International Carnahan Conference]]></conf-name>
<conf-date>1995</conf-date>
<conf-loc> </conf-loc>
<page-range>20-35</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<collab>Fujitsu Laboratories Ltd.</collab>
<source><![CDATA[Palm Vein Authentication Technology and its Applications]]></source>
<year>2003</year>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<collab>IASToolbox</collab>
<source><![CDATA[Image Adquisition System Toolbox for use with Matlab]]></source>
<year>2007</year>
<publisher-name><![CDATA[Matlab Mathworks]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jain]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Hong]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Pankanti]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<source><![CDATA[Biometrics: Promising Frontiers for Emernging Identification Market]]></source>
<year>2000</year>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Fan]]></surname>
<given-names><![CDATA[K. C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Verification Using Thermal Images of Palm-dorsa Vein-patterns]]></source>
<year></year>
<conf-name><![CDATA[ 16th IPPR Conference on Computer Vision, Graphics and Image Processing (CVGIP 2003)]]></conf-name>
<conf-date>2003</conf-date>
<conf-loc> </conf-loc>
<page-range>188-195</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<collab>RNAToolbox</collab>
<source><![CDATA[Neural Network Toolbox For Use with MATLAB]]></source>
<year>2007</year>
<publisher-name><![CDATA[Matlab Mathworks]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tanaka]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Kubo]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
</person-group>
<source><![CDATA[Biometric Authentication by Hand Vein Patterns]]></source>
<year></year>
<conf-name><![CDATA[ SICE Annual Conference in Sapporo]]></conf-name>
<conf-date>2004</conf-date>
<conf-loc> </conf-loc>
<page-range>49-253</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Leedham]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Near- and Far- Infrared Imaging for Vein Pattern Biometrics]]></source>
<year></year>
<conf-name><![CDATA[ Proceedings of the IEEE International Conference on Video and Signal Based Surveillance (AVSS'06)]]></conf-name>
<conf-date>2006</conf-date>
<conf-loc> </conf-loc>
<page-range>1-6</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhao]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
</person-group>
<source><![CDATA[Extracting Hand Vein Patterns from Low-Quality Images: A New Biometric Technique Using Low Cost Devices]]></source>
<year></year>
<conf-name><![CDATA[ Fourth International Conference on Image and Graphics]]></conf-name>
<conf-date>2007</conf-date>
<conf-loc> </conf-loc>
<page-range>667-671</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
