<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1909-9762</journal-id>
<journal-title><![CDATA[Revista Ingeniería Biomédica]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. ing. biomed.]]></abbrev-journal-title>
<issn>1909-9762</issn>
<publisher>
<publisher-name><![CDATA[Fondo Editorial EIA, Escuela de Ingeniería de Antioquia EIA-, Universidad CES]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1909-97622016000100002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[SEGMENTACIÓN Y PARAMETRIZACIÓN AUTOMÁTICA DE IMÁGENES IRIDOLÓGICAS]]></article-title>
<article-title xml:lang="en"><![CDATA[AUTOMATIC SEGMENTATION AND PARAMETERIZATION IRIDOLOGY IMAGES]]></article-title>
<article-title xml:lang="pt"><![CDATA[SEGMENTAÇÃO AUTOMÁTICA E PA RAMETRIZAÇÃO IRIDOLOGIA IMAGENS]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Mendoza]]></surname>
<given-names><![CDATA[Luis Enrique]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Meza]]></surname>
<given-names><![CDATA[Elmer Francisco]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Gualdron]]></surname>
<given-names><![CDATA[Oscar Eduardo]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Pamplona Programa de Ingeniería en Telecomunicaciones ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad de Pamplona Programa de Ingeniería Electrónica ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2016</year>
</pub-date>
<volume>10</volume>
<numero>19</numero>
<fpage>13</fpage>
<lpage>21</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S1909-97622016000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S1909-97622016000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S1909-97622016000100002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Actualmente el estudio y procesamiento de datos iridológicos viene avanzando de manera importante. Diferentes trabajos han demostrado que es posible realizar detección de algunas patologías usando las características del iris de cada sujeto, pero los resultados mostrados en cuanto a la segmentación del mapa iridológico, no son los más prometedores. En este artículo se presenta una novedosa metodología para obtener la segmentación del iris (mapa iridológico) humano de forma automática y manual usando técnicas de procesamiento de imágenes. Dicha segmentación, fue realizada sobre imágenes a nivel de gris, empleándose para el procesamiento de cada imagen herramientas matemáticas como: integral proyectiva, OTSU, realce de contraste, negativo, binarización, suavizado y filtrado. Con el uso de estas técnicas, se han obtenido diferentes parámetros como son la detección de pupila y detección del iris. Con estos parámetros se inició la segmentación de cada imagen iridológica basada en geometría analítica, dicha segmentación permite parametrizar zonas del iris, que muestran el funcionamiento interno de diferentes sistemas fisiológicos, y de esta forma obtener patrones característicos de dichos sistemas, que en el futuro, lograrán realizar procesos de detección de enfermedades basadas en procesamiento de imágenes iridológicas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This paper presents a novel methodology for human iris segmentation automatically and manual using image processing techniques. This segmentation was performed on gray level images, using for processing each image math tools like: comprehensive projective, OTSU, negative contrast enhancement, binarization, smoothing and filtering. Using these techniques, various parameters are obtained for example, the detection of the pupil and iris. With these parameters the iridology segmentation of each image is performed using analytic geometry. This segmentation allows parameterized parts of iris, showing the inner workings of different physiological systems, thus obtaining characteristic patterns of such systems. In the future, will achieve disease detection processes based on image processing iridology.]]></p></abstract>
<abstract abstract-type="short" xml:lang="pt"><p><![CDATA[Actualmente o estudo e processamento de dados iridologia está avançando significativamente. Diferentes estudos têm mostrado que é possível detectar algumas patologias, utilizando as características da íris de cada sujeito, mas os resultados apresentados como a segmentação do gráfico iridologia, eles não são os mais promissores. Este artigo apresenta uma nova metodologia para a segmentação da íris (quadro da íris) humana automaticamente ou manualmente utilizando técnicas de processamento de imagem. Essa segmentação foi realizada em imagens em nível de cinza, sendo usado para processar cada imagem ferramentas matemáticas como um projetivo integral, Otsu, realce de contraste, negativo, binarização, alisando e filtragem. Utilizando estas técnicas, obtivemos diferentes parâmetros, tais como a detecção de detecção da pupila e da íris. Com estes parâmetros de segmentação de cada imagem iridologia baseado em geometria analítica começou, esta segmentação permite parametrizar áreas da íris, mostrando o funcionamento interno dos diferentes sistemas fisiológicos, e assim obter padrões característicos de tal, que, em futuros sistemas, eles vão conseguir executar processos de detecção com base em doenças iridologia processamento de imagem.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Iridología]]></kwd>
<kwd lng="es"><![CDATA[mapa iridológico]]></kwd>
<kwd lng="es"><![CDATA[procesamiento de imágenes]]></kwd>
<kwd lng="es"><![CDATA[segmentación]]></kwd>
<kwd lng="en"><![CDATA[Detección de movimiento]]></kwd>
<kwd lng="en"><![CDATA[Electrofisiología]]></kwd>
<kwd lng="en"><![CDATA[Modelos]]></kwd>
<kwd lng="en"><![CDATA[Ondas]]></kwd>
<kwd lng="en"><![CDATA[Estados locales y globales]]></kwd>
<kwd lng="pt"><![CDATA[Iridologia]]></kwd>
<kwd lng="pt"><![CDATA[Mapa iridologia]]></kwd>
<kwd lng="pt"><![CDATA[Processamento de imagem]]></kwd>
<kwd lng="pt"><![CDATA[Segmentação]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face = "verdana" size = "2">          <p align = "center"><font size = "4"><b>SEGMENTACI&Oacute;N  Y PARAMETRIZACI&Oacute;N AUTOM&Aacute;TICA DE IM&Aacute;GENES IRIDOL&Oacute;GICAS</b></font></p>     <p align = "center"><font size = "3"><b>AUTOMATIC SEGMENTATION AND PARAMETERIZATION  IRIDOLOGY IMAGES</b></font></p>     <p align = "center"><font size = "3"><b>SEGMENTA&Ccedil;&Atilde;O AUTOM&Aacute;TICA E PA RAMETRIZA&Ccedil;&Atilde;O IRIDOLOGIA IMAGENS</b></font></p>     <p>&nbsp;</p>     <p><b>Luis Enrique Mendoza<sup>1</sup>, Elmer Francisco Meza<sup>1</sup>, Oscar Eduardo Gualdron<sup>2</sup></b></p>          <p><i>1 Programa de Ingenier&iacute;a en Telecomunicaciones. Universidad de Pamplona.    <br> 2 Programa de Ingenier&iacute;a Electr&oacute;nica. Universidad de Pamplona. Direcci&oacute;n para correspondencia: <a href="mailto:oscar.gualdron@unipamplona.edu.co">oscar.gualdron@unipamplona.edu.co</a>.</i></p> <hr size = "1" />              <p>&nbsp;</p>     <p><b><font size="3">RESUMEN</font></b></p>     ]]></body>
<body><![CDATA[<p>Actualmente  el estudio y procesamiento de datos iridol&oacute;gicos viene avanzando de manera  importante. Diferentes trabajos  han demostrado que es posible realizar detecci&oacute;n de algunas patolog&iacute;as usando  las caracter&iacute;sticas del iris de cada sujeto, pero los  resultados mostrados en cuanto a la segmentaci&oacute;n del mapa iridol&oacute;gico, no son  los m&aacute;s prometedores. En este art&iacute;culo se presenta una  novedosa metodolog&iacute;a para obtener la segmentaci&oacute;n del iris (mapa iridol&oacute;gico)  humano de forma autom&aacute;tica y manual usando t&eacute;cnicas  de procesamiento de im&aacute;genes. Dicha segmentaci&oacute;n, fue realizada sobre im&aacute;genes  a nivel de gris, emple&aacute;ndose para el  procesamiento de cada imagen herramientas matem&aacute;ticas como: integral  proyectiva, OTSU, realce de contraste, negativo, binarizaci&oacute;n,  suavizado y filtrado. Con el uso de estas t&eacute;cnicas, se han obtenido diferentes  par&aacute;metros como son la detecci&oacute;n de pupila  y detecci&oacute;n del iris. Con estos par&aacute;metros se inici&oacute; la segmentaci&oacute;n de cada  imagen iridol&oacute;gica basada en geometr&iacute;a anal&iacute;tica, dicha  segmentaci&oacute;n permite parametrizar zonas del iris, que muestran el  funcionamiento interno de diferentes sistemas fisiol&oacute;gicos, y  de esta forma obtener patrones caracter&iacute;sticos de dichos sistemas, que en el  futuro, lograr&aacute;n realizar procesos de detecci&oacute;n de enfermedades basadas en procesamiento de im&aacute;genes  iridol&oacute;gicas.</p>     <p><b><font size="3">PALABRAS CLAVE</font></b>: Iridolog&iacute;a; mapa iridol&oacute;gico; procesamiento de im&aacute;genes; segmentaci&oacute;n.</p>  <hr size = "1" />              <p>&nbsp;</p>     <p><b><font size="3">ABSTRACT</font></b></p>     <p>This paper presents a novel  methodology for human iris segmentation automatically and manual using image processing techniques. This  segmentation was performed on gray level images, using for processing each  image math tools like: comprehensive projective, OTSU,  negative contrast enhancement, binarization, smoothing and filtering. Using  these techniques, various parameters are obtained for  example, the detection of the pupil and iris. With these parameters the  iridology segmentation of each image is performed using  analytic geometry. This segmentation allows parameterized parts of iris, showing  the inner workings of different physiological  systems, thus obtaining characteristic patterns of such systems. In the future,  will achieve disease detection processes based on image processing  iridology.</p>     <p><b><font size = "3">KEYWORDS</font></b>: Detecci&oacute;n de movimiento, Electrofisiolog&iacute;a, Modelos, Ondas, Estados  locales y globales.</p> <hr size = "1" />       <p>&nbsp;</p>     <p><b><font size = "3">RESUMO</font></b></p>     <p>Actualmente  o estudo e processamento de dados iridologia est&aacute; avan&ccedil;ando significativamente.  Diferentes estudos  t&ecirc;m mostrado que &eacute; poss&iacute;vel detectar algumas patologias, utilizando as  caracter&iacute;sticas da &iacute;ris de cada sujeito, mas os resultados apresentados como a  segmenta&ccedil;&atilde;o do gr&aacute;fico iridologia, eles n&atilde;o s&atilde;o os mais promissores. Este  artigo apresenta uma nova  metodologia para a segmenta&ccedil;&atilde;o da &iacute;ris (quadro da &iacute;ris) humana automaticamente  ou manualmente utilizando t&eacute;cnicas de  processamento de imagem. Essa segmenta&ccedil;&atilde;o foi realizada em imagens em n&iacute;vel de  cinza, sendo usado para processar cada  imagem ferramentas matem&aacute;ticas como um projetivo integral, Otsu, realce de  contraste, negativo, binariza&ccedil;&atilde;o, alisando e  filtragem. Utilizando estas t&eacute;cnicas, obtivemos diferentes par&acirc;metros, tais  como a detec&ccedil;&atilde;o de detec&ccedil;&atilde;o da pupila e da &iacute;ris. Com  estes par&acirc;metros de segmenta&ccedil;&atilde;o de cada imagem iridologia baseado em geometria  anal&iacute;tica come&ccedil;ou, esta segmenta&ccedil;&atilde;o permite  parametrizar &aacute;reas da &iacute;ris, mostrando o funcionamento interno dos diferentes  sistemas fisiol&oacute;gicos, e assim obter padr&otilde;es caracter&iacute;sticos  de tal, que, em futuros sistemas, eles v&atilde;o conseguir executar processos de  detec&ccedil;&atilde;o com base em doen&ccedil;as iridologia processamento de imagem.</p>     <p><font size = "3"><b>PALAVRAS-CHAVE</b></font>: Iridologia; Mapa iridologia; Processamento de imagem; Segmenta&ccedil;&atilde;o.</p> <hr size = "1" />           ]]></body>
<body><![CDATA[<p>&nbsp;</p>       <p><font size = "3"><b>I. INTRODUCCI&Oacute;N</b></font></p>          <p>La iridolog&iacute;a es la ciencia que facilita la evaluaci&oacute;n y  diagn&oacute;stico del cuerpo humano a trav&eacute;s del estudio  del iris, es decir, el estudio de simbolismos (las manchas  tox&iacute;nicas, la densidad iridiana, las manchas residuales, los  signos org&aacute;nicos y las coloraciones anormales) que  se refleja en las fibras del iris &#91;<a href="#1">1</a>&#93;, &#91;<a href="#2">2</a>&#93;. Cuando se presenta un  estado de alteraci&oacute;n en cualquier parte del sistema fisiol&oacute;gico,  tambi&eacute;n se manifiesta en el iris expres&aacute;ndose de  diferentes formas y tonos de colores. Es decir, un ojo sano  no muestra grietas, ni hoyos. En caso contrario, esas alteraciones  se pueden determinar c&oacute;mo t&iacute;picas marcas de debilidades  &#91;<a href="#2">2</a>&#93;. Es importante resaltar que el estudio del mapa  iridologico y su segmentaci&oacute;n ha sido muy poco estudiada, entre  los trabajos m&aacute;s relevantes est&aacute;n &#91;<a href="#3">3</a>, <a href="#4">4</a>, <a href="#5">5</a>, <a href="#6">6</a>, <a href="#7">7</a>&#93;, estos  trabajos exponen que es posible realizar clasificaci&oacute;n de  patologia y segmentaci&oacute;n del iris usando imagenologia, estos  procesos utilizan una serie de t&eacute;cnicas matem&aacute;ticas, como  PCA, an&aacute;lisis discriminantes, support vector machine y  redes neuronales para procesos de clasificaci&oacute;n, es importante  resaltar que los trabajos desarrollados &#91;<a href="#6">6</a>, <a href="#7">7</a>, <a href="#8">8</a>, <a href="#9">9</a>&#93;  muestran clasificaci&oacute;n usando l iris completo, mientras que  el trabajo que este trabajo, realiza una segmentaci&oacute;n total  de mapa iridologico, lo cual permite realizar clasificaci&oacute;n de  acuerdo al segmento que se desea analizar.</p>     <p>Otros,  trabajos relevantes van enfocados hacia la iridolog&iacute;a permitieron  Detecci&oacute;n de Patolog&iacute;as mediante Zonas Somatotopicas  mediante la segmentaci&oacute;n polar del iris &#91;<a href="#2">2</a>&#93;, reconocimiento  de im&aacute;genes mediante redes neuronales artificiales &#91;<a href="#10">10</a>&#93;  y an&aacute;lisis comparativo de algoritmos en segmentaci&oacute;n de  iris &#91;<a href="#11">11</a>&#93;,estos trabajos muestran la importancia que  tiene el uso de las im&aacute;genes iridol&oacute;gicas en cuanto a  patologias se refiere, ya muestran que es posible utilizarse como  una t&eacute;cnica de an&aacute;lisis patol&oacute;gico no invasivo.</p>     <p>En  este trabajo se propone un nuevo sistema autom&aacute;tico se  segmentaci&oacute;n que permite resolver la necesidad del m&eacute;dico-Irid&oacute;logo  en el momento de realizar su an&aacute;lisis iridol&oacute;gico,  ya que actualmente no existen software que realice  la segmentaci&oacute;n completa del mapa del iris y de esta  manera realizar detalladamente un examen iridol&oacute;gico. Es  importante mencionar las t&eacute;cnicas matem&aacute;ticas usadas  fueron validadas en m&aacute;s de 2000 im&aacute;genes, esto permiti&oacute;  desarrollar un algoritmo robusto y confiable. Por otro  lado, se plantea la posibilidad de realizar en trabajos futuros  t&eacute;cnicas como: deep learning, Adaboosting y m&aacute;quinas de  soporte para conseguir diagn&oacute;sticos m&aacute;s robusto. Con  el desarrollo de este <i>software </i>se quiere evitar que el  paciente se sienta incomodo al momento de realizar la interpretaci&oacute;n  del iris y adem&aacute;s es un m&eacute;todo no invasivo de  diagn&oacute;stico.</p>     <p>Adicionalmente,  este art&iacute;culo muestra a raz&oacute;n de validaci&oacute;n,  c&oacute;mo se puede extraer las diferentes zonas representativas  del intestino en el iris del ojo: intestino delgado,  ciego, colon ascendente, colon transverso, colon descendente,  sigmoides y recto. Es importante mencionar que  estos &oacute;rganos se ven representados tanto en el ojo derecho  como en el ojo izquierdo. Existen casos en que algunos  &oacute;rganos solo se encuentran representados en un solo  ojo. Finalmente, este art&iacute;culo contiene las siguientes secciones:  secci&oacute;n de materiales, m&eacute;todos, resultados, conclusiones  y trabajos futuros.</p>     <p>&nbsp;</p>     <p><b><font size="3">II.  MATERIALES</font></b></p>     <p>La  base de datos utilizada fue suministrada por CASIA   Iris Image Database V1.0 (<i>or  CASIA-IrisV1 for short</i>),   que  consta de 108 carpetas divididas en: 52 carpetas con   im&aacute;genes  de ojos derechos y 56 carpetas con im&aacute;genes   de  ojo izquierdo, cada carpeta contiene 7 im&aacute;genes. Las   im&aacute;genes  se encuentran a escale de grises con dimensi&oacute;n   de  320x280 pixeles, ver <a href="#fig1">Fig 1</a>. &#91;<a href="#12">12</a>&#93;.</p>       <p align="center"><a name="fig1"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig1.gif"></p>     ]]></body>
<body><![CDATA[<p>Para  la realizaci&oacute;n del proyecto se emplearon dos PC de  distintos fabricantes con las siguientes caracter&iacute;sticas: procesador  Intel<sup>&reg;</sup> Core<sup>TM</sup> i5 de 2.27GHz eIntel<sup>&reg;</sup> Core<sup>TM</sup>2 Duo  de 1.50 GHz, con memoria RAM de 3GB y 2GB respectivamente. Se  realizaron m&aacute;s de 4000 corridas del algoritmo en  im&aacute;genes distintas. Las t&eacute;cnicas se seleccionaron en  funcion del error de segmentaci&oacute;n comparando las &aacute;reas de las  zonas con respecto a la segmentaci&oacute;n manual.</p>     <p>Todos  los algoritmos utilizados y dise&ntilde;ados se probaron en igual n&uacute;mero  de im&aacute;genes.</p>     <p>&nbsp;</p>     <p><b><font size="3">III.  M&Eacute;TODOS</font></b></p>     <p>La  secci&oacute;n de m&eacute;todos presenta el desarroll&oacute; paso a   paso  del sistema y las t&eacute;cnicas usadas para la segmentaci&oacute;n   del  iris y obtener el mapa iridol&oacute;gico.</p>     <p><b><i><font size="3">A) T&eacute;cnicas empleadas</font></i></b></p>     <p><font size="3"><i>1) Negativo</i></font></p>     <p>Estando  las im&aacute;genes en escala de grises, se realiz&oacute;   la  conversi&oacute;n de la imagen en el negativo, esto da una   ventaja  para la ejecuci&oacute;n del algoritmo correspondiente   a  la detecci&oacute;n del centro de la pupila. Ya que se busca es   mayor  importancia al iris de la imagen y eliminar lo que   no  corresponde a zona de inter&eacute;s.</p>     <p>La  funci&oacute;n matem&aacute;tica empleada (<a href="#for1">1</a>), consiste en una resta  de 255 con cada uno de los valores de cada pixel de la  imagen.</p>     <p><a name="for1"></a><img src="img/revistas/rinbi/v10n19/v10n19a02for1.gif"></p>     ]]></body>
<body><![CDATA[<p>Donde <i>f </i>(<i>i,j</i>) representa a la imagen original, <i>f ' </i>(<i>i,j</i>)   representa  la imagen en negativo, i son las filas y j las   columnas.  El resultado de esta t&eacute;cnica se observa en la <a href="#fig2">Fig. 2</a>.  En la imagen <i>f ' </i>(<i>i,j</i>), se observa como la pupila tiende m&aacute;s  al nivel de gris 255 que en el resto de la imagen. Esto indica  que el resultado es bastante importante ya que se buscaba,  resaltar el iris del resto de la imagen.</p>     <p align="center"><a name="fig2"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig2.gif"></p>     <p><i><font size="3">1) M&eacute;todo de Otsu</font></i></p>     <p>El  m&eacute;todo de Otsu, propuesto en 1979, es un algoritmo   para  la determinaci&oacute;n autom&aacute;tica de un umbral   de  binarizaci&oacute;n a partir del histograma de una imagen. Si  consideramos que el conjunto de niveles de gris que conforman  una imagen son: G = {0, 1, 2,..., L}; siendo L el valor  m&aacute;ximo de niveles de gris, el umbral que vamos a obtener  se considera el punto que parte los pixeles de una imagen  en dos clases de niveles de gris C0 = {0, 1,..., L}; y  C1 = {t+0, t+1,..., L}; donde <i>t </i>es el umbral &oacute;ptimo que maximiza  la separabilidad de estas dos clases &#91;<a href="#13">13</a>&#93;.</p>     <p>El  m&eacute;todo est&aacute; basado en un an&aacute;lisis discriminante. Un  umbral &oacute;ptimo puede ser determinado minimizando algunas  de las siguientes funciones con respecto a <i>t</i>:</p>     <p><a name="for2"></a><img src="img/revistas/rinbi/v10n19/v10n19a02for2.gif"></p>     <p>D&oacute;nde: <i>&sigma;</i><sup>2</sup><i>W</i>, <i>&sigma;</i><sup>2</sup><i>B </i>y <i>&sigma;</i><sup>2</sup><i>T </i>son la varianza dentro de la   clase,  la varianza entre clase y la varianza total respectivamente   &#91;<a href="#14">14</a>&#93;.</p>     <p>De  los tres criterios a minimizar, el <i>&eta; </i>es el m&aacute;s simple &#91;<a href="#13">13</a>&#93;.  Por tanto, el umbral &oacute;ptimo <i>t' </i>se define como:</p>     <p><a name="for3"></a><img src="img/revistas/rinbi/v10n19/v10n19a02for3.gif"></p>     <p>D&oacute;nde: <i>G </i>es el conjunto de enteros positivos que representa   los  niveles de gris &#91;<a href="#14">14</a>&#93;. El m&eacute;todo de OTSU, en   pocas  palabras busca el umbral &oacute;ptimo para lograr desarrollar   una  binarizacion en una imagen. En este trabajo se   realizaron  diferentes pruebas de selecci&oacute;n de umbrales entre   las  mas comunes est&aacute;n: umbral manual, umbral &oacute;ptimo   o  seleccionado seg&uacute;n caracter&iacute;sticas de la imagen, umbral   por  media, mediana, umbral por desviaci&oacute;n estandar. Los   mejores  resultados se consiguieron usando OTSU y umbrales   seleccionado.  A continuaci&oacute;n se explica de manera   mas  detallada.</p>     ]]></body>
<body><![CDATA[<p><i><font size="3">2) Binarizaci&oacute;n</font></i></p>     <p>La  Binarizaci&oacute;n es una t&eacute;cnica que permite convertir   im&aacute;genes  con niveles de gris, en una imagen binaria (blanco   y  negro). Los valores de pixel en la imagen de entrada que   son  menores a un cierto umbral, son convertidos a negro   (0),  mientras que los pixeles con los valores mayores al   umbral,  son convertidos a blanco (1) &#91;<a href="#15">15</a>&#93;.</p>     <p>Para  este art&iacute;culo se realizaron dos binarizaciones una con  el umbral obtenido del m&eacute;todo de Otsu y la otra obtenida con  el umbral adquirido de la siguiente forma que llamaremos umbral  seleccionado: se toma un rango de los colores claros,  puesto que la pupila es la parte m&aacute;s clara y extensa de  la (<a href="#fig2">Fig. 2</a>), en este caso dicho rango va de 200 a 255. De esta  manera se obtiene un vector contando la cantidad de pixeles  con la misma intensidad y almacenando dicho valor en  la posici&oacute;n equivalente a la intensidad en el vector, en la ecuaci&oacute;n  (<a href="#for4">4</a>) se observa c&oacute;mo se realiza el contador.</p>     <p><a name="for4"></a><img src="img/revistas/rinbi/v10n19/v10n19a02for4.gif"></p>     <p>D&oacute;nde: <i>v </i>es el vector original, <i>v' </i>es el vector resultante, <i>f </i>es la imagen,  (<i>i, j</i>) representan las filas y columnas respectivamente. El  siguiente procedimiento es sacar el valor de  la posici&oacute;n donde est&aacute; el punto m&aacute;ximo de dicho vector y este es el  umbral empleado.</p>     <p>En  la <a href="#fig3">Fig. 3</a>, se observa la binarizaci&oacute;n con umbral obtenido del  m&eacute;todo de Otsu y con el umbral seleccionado. Obs&eacute;rvese  como el umbral seleccionado elimina m&aacute;s informaci&oacute;n no relevante  y dejando solo la pupila en blanco.</p>     <p align="center"><a name="fig3"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig3.gif"></p>     <p><i><font size="3">3) Realce de contraste</font></i></p>     <p>Con  el objetivo de resaltar el contorno del iris se utiliza   un  realce de contraste que consiste en tomar un rango de   valores  adecuado a la forma o figura que se desea resaltar   dando  un valor fijo y lo que se encuentre fuera de dicho   rango  se aplica la ecuaci&oacute;n matem&aacute;tica (<a href="#for5">5</a>).</p>     <p><a name="for5"></a><img src="img/revistas/rinbi/v10n19/v10n19a02for5.gif"></p>     ]]></body>
<body><![CDATA[<p>Donde <i>f </i>(<i>x,y</i>) es el valor del pixel actual de la imagen,   min  y max son los valores m&iacute;nimos y m&aacute;ximos respectivamente   del  umbral o rango y <i>F </i>(<i>x,y</i>) es el nuevo resultado   del  pixel de la imagen. Las im&aacute;genes que aparecen en la   <a href="#fig4">Fig.  4</a> muestran el efecto resultante del realce de contrate,   n&oacute;tese  como el iris se resalta en comparaci&oacute;n con la <a href="#fig2">Fig. 2</a>.  El realce de contraste permite mejorar las caracter&iacute;sticas o  datos relevantes de la imagen en estudio, en este caso el  realce permiti&oacute; tener un rango &uacute;nico para las posiciones de  la imagen que hacen parte del iris y as&iacute; lograr aplicar la integral  proyectiva y tener resultados importantes.</p>     <p align="center"><a name="fig4"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig4.gif"></p>     <p><i><font size="3">4) Integral proyectiva</font></i></p>     <p>Una  integral proyectiva (o una proyecci&oacute;n) no es m&aacute;s   que  la media de los valores de gris de una imagen a lo   largo  de las filas o columnas, es decir, donde cada valor   de  salida es la media aritm&eacute;tica de una fila o columna de   p&iacute;xeles  de la entrada &#91;<a href="#16">16</a>&#93;. Esta t&eacute;cnica es empleada para la   detecci&oacute;n  del borde del iris.</p>     <p>En  la <a href="#fig5">Fig. 5</a>, se observa una imagen con una se&ntilde;al que caracteriza  la integral proyectiva. Como se observa en la   <a href="#fig5">Fig  5</a>, la integral proyectiva ubica de manera precisa, donde comienza  y donde termina el iris, tambi&eacute;n ubica el comienzo y  final de la pupila, esto permiti&oacute; garantizar junto con  el realce, y la binarizaci&oacute;n resultados se segmentaci&oacute;n inicial  en las im&aacute;genes iridol&oacute;gicas. Siendo esto el punto de partida  para la segmentaci&oacute;n final.</p>     <p align="center"><a name="fig5"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig5.gif"></p>     <p><b><i><font size="3">B) Segmentaci&oacute;n final</font></i></b></p>     <p>A  continuaci&oacute;n se explica la metodolog&iacute;a que se llev&oacute;   acabo  para logar la segmentaci&oacute;n y extracci&oacute;n de patrones.</p>     <p><i><font size="3">1) Detecci&oacute;n del borde del iris</font></i></p>     <p>Hasta  este punto se ha obtenido, gracias a las t&eacute;cnicas   de  acondicionamiento el borde del iris, con este avance   se  ha superado una gran dificultad, puesto que el iris se   pod&iacute;a  confundir f&aacute;cilmente con la escler&oacute;tica (parte blanca   del  ojo).</p>     ]]></body>
<body><![CDATA[<p>Para  realizar la detecci&oacute;n, se emplearon dos t&eacute;cnicas, una  con base a la t&eacute;cnica realce de contraste y la otra con integrales  proyectivas. Para continuar el procedimiento con  realce de contraste se realiz&oacute; lo siguiente: se tom&oacute; como  punto de referencia el centro de la pupila, se recorre el  vector desde este punto hacia la izquierda buscando en qu&eacute;  posici&oacute;n se presenta una continuidad de puntos negros (50  pixeles con valor de 0 consecutivos) como se observa en  la parte izquierda de la <a href="#fig6">Fig. 6</a>, donde se encuentra resaltado.  Cuando se da dicha continuidad, se almacena la posici&oacute;n,  la cual indica con exactitud el borde del iris. Este valor  de pixeles consecutivos se obtuvo realizando pruebas con  valores aleatorios y el valor que mejor resultados present&oacute; fue el  seleccionado.</p>     <p align="center"><a name="fig6"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig6.gif"></p>     <p>En  el caso de obtener el borde mediante integrales proyectivas  se tom&oacute; el vector resultante, se deriv&oacute; y se recorri&oacute;  tambi&eacute;n dicho vector desde el punto que indica el centro  de la pupila (punto rojo en la <a href="#fig7">Fig. 7</a>) hasta el punto inicial  del vector. Y se tom&oacute; el punto correspondiente al segundo  valle m&aacute;s significativo de dicho vector (punto amarillo  en <a href="#fig7">Fig. 7b</a>), este punto indica la posici&oacute;n de borde izquierdo  el iris. En la <a href="#fig7">Fig.7</a>, se observa el vector resultante de  integrales proyectivas y su respectiva derivada, en ella  se muestran los puntos de corresponden al borde del iris  y al centro de la pupila. Es importante resaltar que la derivada  de un vector muestra sus puntos de inflexi&oacute;n, las pendientes  positivas y pendientes negativas, de aqu&iacute; que fue  posible utilizar las transiciones de negativo a positivos del  vector derivada para ubicar el punto de los bordes del  iris. Una vez ubicado los puntos donde comienzan y termina  el iris se procedi&oacute; a realizar el mapa iridol&oacute;gico, se  debe tener en cuenta que el iris de cada sujeto tiene una forma  circular.</p>     <p align="center"><a name="fig7"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig7.gif"></p>     <p><font size="3"><i>2) Mapa iridol&oacute;gico</i></font></p>     <p>Una  vez encontrado el cetro de la pupila, borde de la   pupila  y el borde del iris se trazan unos arcos conc&eacute;ntricos   alrededor  de la pupila y el iris, la distancia entre estos   arcos se  puede observar en la <a href="#tab1">Tabla 1</a>.</p>       <p align="center"><a name="tab1"></a><img src="img/revistas/rinbi/v10n19/v10n19a02tab1.gif"></p>     <p>El  mapa del iris parte desde la pupila, este se divide en doce  sectores radiales y se concreta en siete &aacute;reas o espacios de  reflexi&oacute;n: reflexi&oacute;n del est&oacute;mago; &aacute;rea intestinal; gl&aacute;ndulas  suprarrenales; zona cardiaca, ri&ntilde;ones y p&aacute;ncreas; bronquios  y las gl&aacute;ndulas pineal y pituitarias; cerebro y &oacute;rganos reproductores;  brazo, tiroides e h&iacute;gado; piel, sistema linf&aacute;ticos  y circulatorios, gl&aacute;ndulas sudor&iacute;ficas, m&uacute;sculos y nervios  motores y sensitivos &#91;<a href="#17">17</a>&#93;.</p>     <p>La  cartograf&iacute;a que se tuvo en cuenta para obtener el mapa  iridologico, fue basada del mapa iridol&oacute;gico aprobado por  la sociedad de irid&oacute;logos (carta Dr. Jensen). El rayado b&aacute;sico del  mapa iridol&oacute;gico se observa en la <a href="#fig8">Fig. 8</a>.</p>     <p align="center"><a name="fig8"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig8.gif"></p>     ]]></body>
<body><![CDATA[<p><i><font size="3">3) Extracci&oacute;n de las zonas de inter&eacute;s</font></i></p>     <p>En  este trabajo se obtuvo la informaci&oacute;n correspondiente   al  intestino delgado, ciego, colon ascendente, colon   transverso,  colon descendente, sigmoides y recto. En el   trabajo  realizado por Lin Lu y colaboradores &#91;<a href="#18">18</a>&#93;, se puede   observar  la distribuci&oacute;n fisiol&oacute;gica del colon en sus diferentes   partes.Para  realizar estudios m&aacute;s profundos, este proceso   consiste  en extraer la matriz que representa la zona deseada   como  se observa en la <a href="#fig9">Fig. 9</a>. Adicionalmente se muestra en   forma  de zoom, todas las componentes del colon. Es decir si   se  quisiera realizar un an&aacute;lisis de c&oacute;mo est&aacute; el colon a trav&eacute;s   del iris, se  debe analizar la porci&oacute;n seleccionada.</p>       <p align="center"><a name="fig9"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig9.gif"></p>     <p>&nbsp;</p>     <p><b><font size="3">IV.  RESULTADOS</font></b></p>     <p>En  el proceso de segmentaci&oacute;n del iris es prioritario   obtener  de la imagen tres puntos importantes: centro de pupila,   borde  de la pupila y borde del iris. Para ello, se llev&oacute; a   cabo el orden  l&oacute;gico el cual se observa en la <a href="#fig10">Fig. 10</a>.</p>       <p align="center"><a name="fig10"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig10.gif"></p>     <p>Aplicando  las t&eacute;cnicas negativo y binarizaci&oacute;n con umbral  seleccionado, la imagen resultante es una matriz binaria  con una figura principal en blanco que en este caso es  la pupila. Seguidamente se halla el centro de las figuras en  blanco como se puede observar en la <a href="#fig11">Fig. 11</a>. Solo se tiene  en cuenta el centro de la figura con mayor &aacute;rea, para este  caso la pupila. En este instante del proceso se puede detectar  tambi&eacute;n el borde de la pupila ubicando la variaci&oacute;n entre blanco  y negro que presenta la <a href="#fig11">Fig. 11</a>.</p>     <p align="center"><a name="fig11"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig11.gif"></p>     <p>En  conjunto con la t&eacute;cnica realce de contraste se emple&oacute; el  m&eacute;todo de Otsu para adquirir el umbral de binarizaci&oacute;n y  as&iacute; obtener una imagen binarizada con el borde del iris resaltado  para la detecci&oacute;n del borde extremo del mismo.</p>     ]]></body>
<body><![CDATA[<p>La  otra t&eacute;cnica empleada para la detecci&oacute;n del borde del  iris fue la integral proyectiva con la derivada de primer orden  del vector resultante de la misma, la cual se puede analizar  para obtener un punto significativo que represente el  borde del iris.</p>     <p>Una  opci&oacute;n para mayor comodidad y eficiencia en la detecci&oacute;n  del borde del iris se implement&oacute; la forma manual, que  consiste en dar doble clic sobre el borde del iris.</p>     <p>Finalmente  se realiza el rayado del mapa iridol&oacute;gico, el  espacio que existe entre el borde del iris y la pupila es  dividido porcentualmente en 7 zonas. La <a href="#tab1">Tabla 1</a>, muestra  las distancias en porcentaje de cada una de las 7  zonas, estas distancias fueron obtenidas linealmente. Obs&eacute;rvese  que dichos porcentajes muestran que las distancias de  las zonas no son equidistantes, es decir que no tiene  el mismo porcentaje, esto es muy importante ya que para  el mapa iridologico se debe tener en cuenta estos porcentajes.  Es decir que la zona 1 tiene un porcentaje real  del 13.33%, la zona 2 de 18,89% y la zona 7 tiene un porcentaje  real de 4.45%.</p>     <p>En  la <a href="#fig12">Fig. 12</a>, se puede observar el mapa iridol&oacute;gico y las  zonas que corresponde al intestino. En esta figura, el ojo  se encuentra dividido en distintas zonas con diferentes colores,  donde la zona de color rojo corresponde al intestino delgado,  la zona de color cian al colon transverso, la zona  de color magenta al colon descendente, la zona de color  verde los sigmoides y la zona entre las l&iacute;neas amarillas al  recto. En la <a href="#fig13">Fig. 13</a>, la divisi&oacute;n de zonas es distintas y  se distribuye de la siguiente forma: donde la zona de color  cian al colon ascendente, la zona de color magenta al colon  transverso, la zona de color verde al intestino delgado y la zona de  color amarillo al ciego.</p>     <p align="center"><a name="fig12"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig12.gif"></p>     <p align="center"><a name="fig13"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig13.gif"></p>     <p>Obtenido  el rayado del mapa iridol&oacute;gico se procede a  la extracci&oacute;n de patrones de clasificaci&oacute;n, generando nuevas  matrices en blanco, cambiando la ubicaci&oacute;n de cada  zona por pixeles negros como se observa en la <a href="#fig14">Fig. 14</a>,  seguidamente reemplazando dichos pixeles negros por pixeles  con informaci&oacute;n extra&iacute;dos de la imagen original como se  observa en la <a href="#fig15">Fig. 15</a>.</p>     <p align="center"><a name="fig14"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig14.gif"></p>     <p align="center"><a name="fig15"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig15.gif"></p>     <p>Ya  obtenidos los patrones se procede a recortar cada matriz.  En la <a href="#fig16">Fig. 16</a>, se puede observar una de las matrices extra&iacute;das  que corresponde al colon transverso en el ojo  derecho.</p>     ]]></body>
<body><![CDATA[<p align="center"><a name="fig16"></a><img src="img/revistas/rinbi/v10n19/v10n19a02fig16.gif"></p>     <p>Los  resultados presentados muestra una robustez del sistema,  ya que permite ubicar de manera precisa todo el mapa  oridologico en m&aacute;s de 2000 im&aacute;genes, esto evidencia que  la propuesta para la segmentaci&oacute;n ser&aacute; muy &uacute;til en futuros trabajos.</p>     <p>&nbsp;</p>     <p><b><font size="3">V.  CONCLUSIONES</font></b></p>     <p>En  el momento de adquirir las im&aacute;genes es indispensable   exigir  unas caracter&iacute;sticas m&iacute;nimas para obtener un   resultado  &oacute;ptimo, dichas caracter&iacute;sticas son: un iris claro,   sin  ning&uacute;n tipo de reflejo, ojos bien abiertos y realizar las   tomas  con la misma herramienta de adquisici&oacute;n y condiciones   de  ambiente, cuando se realiz&oacute; la segmentaci&oacute;n se   obtuvo  resultados satisfactorios con las t&eacute;cnicas empleadas   para  la detecci&oacute;n autom&aacute;tica del borde del iris. Ubicar el   centro  del iris fue un paso fundamental para la segmentaci&oacute;n   y  lograr un mapa iridologico coherente, realizando   una  comparaci&oacute;n con los resultados manuales. Por otro   lado,  el uso de la integral proyectiva para el detecci&oacute;n de   bordes  es fundamental y ubicar de manera exacta el iris,   y  de esta manera obtener las diferentes zonas del mapa   iridol&oacute;gico.  En cuanto al porcentaje de error encontrado   haciendo  la comparaci&oacute;n autom&aacute;tico vs manual fue del   0.35%,  esto indica que el sistema de segmentaci&oacute;n autom&aacute;tico   es  muy acertado, la segmentaci&oacute;n manual la realiz&oacute;   un  experto en oftalmolog&iacute;a. Obteniendo la segmentaci&oacute;n   apropiada,  la extracci&oacute;n de patrones se realiza de forma   autom&aacute;tica  y segura, la vectorizaci&oacute;n de estos patrones,   permiti&oacute;  realizar comparaciones entre los vectores obtenidos   en  las im&aacute;genes que se usaron y asi, relacionar los   resultados  de las zonas en diferentes sujetos. Finalmente   es  importante resaltar que los resultados obtenidos de las   zonas  como colon transverso mantuvieron una relaci&oacute;n   en  forma y en &aacute;rea comparando 200 im&aacute;genes de sujetos   diferentes,  esto conlleva a mostrar resultados importantes   y  tener una herramienta se segmentaci&oacute;n robusta.</p>     <p>&nbsp;</p>     <p><b><font size="3">VI.  TRABAJOS FUTUROS</font></b></p>     <p>Para  un trabajo futuro con miras a lograr la clasificaci&oacute;n   con  el objetivo de ofrecer un diagn&oacute;stico, las matrices   obtenidas  se vectorizar&aacute;n con el fin de emplearlas como   entradas  a los clasificadores; los posibles clasificadores   que  se utilizar&aacute;n son: redes neuronales, m&aacute;quinas de soporte   vectorial  (LS-SVM) y Adaboosting.</p>     <p>Agradecimientos Se  agradece a Juan Manuel Ortega Gamboa por su colaboraci&oacute;n,  ense&ntilde;anza y dedicaci&oacute;n al trabajo realizado sobre  iridolog&iacute;a y al grupo de ingenier&iacute;a biom&eacute;dica de la universidad de Pamplona (GIBUP).</p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><b><font size="3">REFERENCIAS</font></b></p>     <!-- ref --><p>&#91;<a name="1">1</a>&#93;.  Ferrantelli P. Enciclopedia pr&aacute;ctica de las medicinas alternativas. Ed.  Buenos Aires: Ediciones Lea, 2005, pp. 249.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936434&pid=S1909-9762201600010000200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="2">2</a>&#93;.  S&aacute;nchez S., Romero R., Puebla J.. Detecci&oacute;n de Patolog&iacute;as mediante Zonas  Somatotopicas mediante la segmentaci&oacute;n polar del Iris. <i>RISCE Revista Internacional de  Sistemas Computacionales y</i> <i>Electr&oacute;nicos</i>, 27-35, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936436&pid=S1909-9762201600010000200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="3">3</a>&#93;. Perner P. Standardization in  IRIS diagnosis. <i>Cybernetics</i> (CYBCONF), IEEE 2nd International  Conference, 212-217, 2015.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936438&pid=S1909-9762201600010000200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="4">4</a>&#93;. Lodin A., Demea, S. Design of  an iris-based medical diagnosis system. <i>Signals, Circuits and Systems</i>, (ISSCS). International Symposium, 1-4. 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936440&pid=S1909-9762201600010000200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="5">5</a>&#93;. Nor'aini A.J., Rohilah S.,  Azilah S., Classification of iris regionsusing Principal Component Analysis and  Support Vector Machine. <i>Signal and Image Processing  Applications </i>(ICSIPA). 134-139. 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936442&pid=S1909-9762201600010000200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="6">6</a>&#93;. Sulistiyo M.D., Dayawati R.N.,  Pahirawan P.A.M. Iridologybased dyspepsia early detection using  linear discriminant analysis and Cascade Correlation  Neural Network. <i>Information</i> <i>and Communication Technology </i>(ICoICT), 2nd  International Conference, 139-144. 2014.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936444&pid=S1909-9762201600010000200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="7">7</a>&#93;. Cheng-Liang Lai, Chien-Lun Chiu.  Health examination based on iris images. <i>Machine  Learning and Cybernetics </i>(ICMLC), International Conference, 2616-2621. 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936446&pid=S1909-9762201600010000200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="8">8</a>&#93;. Ramlee R.A., Azha K., Ranjit,  S. Using Iris Recognition Algorithm, Detecting Cholesterol Presence. <i>Information  Management and</i> <i>Engineering</i>, ICIME '09.  International Conference. 714-717. 200, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936448&pid=S1909-9762201600010000200008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="9">9</a>&#93;. Ma L., Zhang D., Li N., Cai Y.,  Zuo W., Wang K. Iris-Based Medical Analysis by Geometric  Deformation Features. <i>IEEE</i> <i>Journal of Biomedical and  Health Informatics</i>, 17(1), 223-231, 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936450&pid=S1909-9762201600010000200009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="10">10</a>&#93;.  Romo A. E. Reconocimiento de im&aacute;genes mediante redes neuronales  artificiales aplicado a la iridolog&iacute;a. Tesis de maestr&iacute;a, Departamento  de Ingenier&iacute;a El&eacute;ctrica, Centro de Investigaci&oacute;n y Estudios  Avanzados del I.P.N. M&eacute;xico. 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936452&pid=S1909-9762201600010000200010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="11">11</a>&#93;.  Tejedor J. An&aacute;lisis Comparativo de Algoritmos en Segmentaci&oacute;n de  Iris. Proyecto fin de Carrera, Departamento de Ingenier&iacute;as y arquitectura.  Universidad Carlos III de Madrid, Madrid, Espa&ntilde;a, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936454&pid=S1909-9762201600010000200011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="12">12</a>&#93;. Cadena Global. Center for  bioemetrics and security Research. Consultado  en septiembre de 2011 en <a href="http://www.cbsr.ia.ac.cn/IrisDatabase.htm" target="_blank">http://www.cbsr.ia.ac.cn/IrisDatabase.htm</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936456&pid=S1909-9762201600010000200012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="13">13</a>&#93;.  Castell&oacute; V. Localizaci&oacute;n y decodificaci&oacute;n de c&oacute;digos de barras en im&aacute;genes  digitales. Proyecto fin de carrera. Facultad de Ingenier&iacute;a y  Arquitectura. Universitat Jaume I. Castell&oacute;n de la Plana, Espa&ntilde;a, 2005, pp. 55.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936458&pid=S1909-9762201600010000200013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="14">14</a>&#93;. Cheriet M., Said J.N., Suen  C.Y. A Recursive Thresholding Technique for Image Segmentation. <i>IEEE  Transaction on Inage</i> <i>Processing</i>,  7, 118-119, June 1999.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936460&pid=S1909-9762201600010000200014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="15">15</a>&#93;.  Passariello G. Im&aacute;genes M&eacute;dicas: Adquisici&oacute;n, An&aacute;lisis, Procesamiento  e Interpretaci&oacute;n. Ed. Miranda-Venezuela: Universidad  Sim&oacute;n Bol&iacute;var, 1995. 65, 81.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936462&pid=S1909-9762201600010000200015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="16">16</a>&#93;.  Gin&eacute;s, M. Procesamiento de caras humanas mediante integrales proyectivas.  Tesis de doctorado, Departamento de Inform&aacute;tica y sistemas,  Universidad de Murcia, Espa&ntilde;a, 2007, pp 33.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936464&pid=S1909-9762201600010000200016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="17">17</a>&#93;.  Vargas M.J. La Ciencia que Lee los Ojos. <i>Vida  la revista</i>, 2, 24-25,  abril, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936466&pid=S1909-9762201600010000200017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;<a name="18">18</a>&#93;.  Lu L., Zhang D., Lei L., Zhao J. Fully Automated Colon Segmentation for the Computation of  Complete Colon Centerline in Virtual Colonoscopy. <i>Biomedical  Engineering, IEEE</i> <i>Transactions</i>.  59, 996-1004, 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5936468&pid=S1909-9762201600010000200018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p> </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ferrantelli]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Enciclopedia práctica de las medicinas alternativas]]></source>
<year>2005</year>
<page-range>249</page-range><publisher-loc><![CDATA[Buenos Aires ]]></publisher-loc>
<publisher-name><![CDATA[Ediciones Lea]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sánchez]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Romero]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Puebla]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Detección de Patologías mediante Zonas Somatotopicas mediante la segmentación polar del Iris]]></article-title>
<source><![CDATA[RISCE Revista Internacional de Sistemas Computacionales y Electrónicos]]></source>
<year></year>
<page-range>27-35</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Perner]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Standardization in IRIS diagnosis]]></article-title>
<source><![CDATA[Cybernetics (CYBCONF)]]></source>
<year></year>
<page-range>212-217</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lodin]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Demea]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Design of an iris-based medical diagnosis system]]></article-title>
<source><![CDATA[Signals, Circuits and Systems]]></source>
<year></year>
<page-range>1-4</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nor'aini]]></surname>
<given-names><![CDATA[A.J.]]></given-names>
</name>
<name>
<surname><![CDATA[Rohilah]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Azilah]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Classification of iris regionsusing Principal Component Analysis and Support Vector Machine]]></article-title>
<source><![CDATA[Signal and Image Processing Applications]]></source>
<year></year>
<page-range>134-139</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sulistiyo]]></surname>
<given-names><![CDATA[M.D.]]></given-names>
</name>
<name>
<surname><![CDATA[Dayawati]]></surname>
<given-names><![CDATA[R.N.]]></given-names>
</name>
<name>
<surname><![CDATA[Pahirawan]]></surname>
<given-names><![CDATA[P.A.M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Iridologybased dyspepsia early detection using linear discriminant analysis and Cascade Correlation Neural Network]]></article-title>
<source><![CDATA[Information and Communication Technology]]></source>
<year></year>
<page-range>139-144</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cheng-Liang]]></surname>
<given-names><![CDATA[Lai]]></given-names>
</name>
<name>
<surname><![CDATA[Chien-Lun]]></surname>
<given-names><![CDATA[Chiu]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Health examination based on iris images]]></article-title>
<source><![CDATA[Machine Learning and Cybernetics]]></source>
<year></year>
<page-range>2616-2621</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ramlee]]></surname>
<given-names><![CDATA[R.A.]]></given-names>
</name>
<name>
<surname><![CDATA[Azha]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Ranjit]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using Iris Recognition Algorithm, Detecting Cholesterol Presence]]></article-title>
<source><![CDATA[Information Management and Engineering]]></source>
<year></year>
<page-range>714-717</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ma]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Cai]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Zuo]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Iris-Based Medical Analysis by Geometric Deformation Features]]></article-title>
<source><![CDATA[IEEE Journal of Biomedical and Health Informatics]]></source>
<year></year>
<volume>17</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>223-231</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Romo]]></surname>
<given-names><![CDATA[A. E]]></given-names>
</name>
</person-group>
<source><![CDATA[Reconocimiento de imágenes mediante redes neuronales artificiales aplicado a la iridología]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tejedor]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Análisis Comparativo de Algoritmos en Segmentación de Iris]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="">
<collab>Cadena Global</collab>
<source><![CDATA[Center for bioemetrics and security Research]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Castelló]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
</person-group>
<source><![CDATA[Localización y decodificación de códigos de barras en imágenes digitales]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cheriet]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Said]]></surname>
<given-names><![CDATA[J.N.]]></given-names>
</name>
<name>
<surname><![CDATA[Suen]]></surname>
<given-names><![CDATA[C.Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Recursive Thresholding Technique for Image Segmentation]]></article-title>
<source><![CDATA[IEEE Transaction on Inage Processing]]></source>
<year></year>
<volume>7</volume>
<page-range>118-119</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Passariello]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<source><![CDATA[Imágenes Médicas: Adquisición, Análisis, Procesamiento e Interpretación]]></source>
<year>1995</year>
<page-range>65</page-range><publisher-loc><![CDATA[Miranda ]]></publisher-loc>
<publisher-name><![CDATA[Universidad Simón Bolívar]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ginés]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Procesamiento de caras humanas mediante integrales proyectivas]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vargas]]></surname>
<given-names><![CDATA[M.J]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La Ciencia que Lee los Ojos]]></article-title>
<source><![CDATA[Vida la revista]]></source>
<year></year>
<volume>2</volume>
<page-range>24-25</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lu]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Lei]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Zhao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fully Automated Colon Segmentation for the Computation of Complete Colon Centerline in Virtual Colonoscopy]]></article-title>
<source><![CDATA[Biomedical Engineering, IEEE Transactions]]></source>
<year></year>
<volume>59</volume>
<page-range>996-1004</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
