<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0121-4993</journal-id>
<journal-title><![CDATA[Revista de Ingeniería]]></journal-title>
<abbrev-journal-title><![CDATA[rev.ing.]]></abbrev-journal-title>
<issn>0121-4993</issn>
<publisher>
<publisher-name><![CDATA[Universidad de los Andes.]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0121-49932011000300002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Una Implementación Computacional de un Modelo de Atención Visual Bottom-up Aplicado a Escenas Naturales]]></article-title>
<article-title xml:lang="en"><![CDATA[A Computational Implementation of a Bottom-up Visual Attention Model Applied to Natural Scenes]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ramírez-Moreno]]></surname>
<given-names><![CDATA[David F]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ramírez-Villegas]]></surname>
<given-names><![CDATA[Juan F]]></given-names>
</name>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Occidente  ]]></institution>
<addr-line><![CDATA[Cali ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>30</day>
<month>12</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>30</day>
<month>12</month>
<year>2011</year>
</pub-date>
<numero>35</numero>
<fpage>6</fpage>
<lpage>11</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0121-49932011000300002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0121-49932011000300002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0121-49932011000300002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El modelo de atención visual bottom-up propuesto por Itti et al., 2000 &#91;1&#93;, ha sido un modelo popular en tanto exhibe cierta evidencia neurobiológica de la visión en primates. Este trabajo complementa el modelo computacional de este fenómeno desde la dinámica realista de una red neuronal. Asimismo, esta aproximación se basa en la existencia de mapas topográficos que representan la prominencia de los objetos del campo visual para la formación de una representación general (mapa de prominencia), esta representación es la entrada de una red neuronal dinámica con interacciones locales y globales de colaboración y competencia que convergen sobre las principales particularidades (objetos) de la escena.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The bottom-up visual attention model proposed by Itti et al. 2000 &#91;1&#93;, has been a popular model since it exhibits certain neurobiological evidence of primates' vision. This work complements the computational model of this phenomenon using a neural network with realistic dynamics. This approximation is based on several topographical maps representing the objects' saliency that construct a general representation (saliency map), which is the input for a dynamic neural network, whose local and global collaborative and competitive interactions converge to the main particularities (objects) presented by the visual scene as well.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Neurobiología computacional]]></kwd>
<kwd lng="es"><![CDATA[visión]]></kwd>
<kwd lng="es"><![CDATA[sistema visual]]></kwd>
<kwd lng="en"><![CDATA[Computational neurobiology]]></kwd>
<kwd lng="en"><![CDATA[vision]]></kwd>
<kwd lng="en"><![CDATA[visual system]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face="verdana" size="2">     <p align="center"><font face="Verdana" size="3"><b>Una Implementaci&oacute;n Computacional de un Modelo de Atenci&oacute;n Visual <i>Bottom-up</i> Aplicado a Escenas Naturales</b></font></p>     <p align="center"><font face="Verdana" size="2">A Computational Implementation of a Bottom-up Visual Attention Model Applied to Natural Scenes</font></p>     <p><b>David F. Ram&iacute;rez-Moreno</b><sup>(1)*</sup>, <b>Juan F. Ram&iacute;rez-Villegas</b><sup>(2)*</sup></p>     <p>(1) 1PhD. Correo: <a href="mailto:dramirez@uao.edu.co">dramirez@uao.edu.co</a></p>     <p>(2) BEng. Correo: <a href="mailto:juanfelipe.rv@gmail.com">juanfelipe.rv@gmail.com</a></p>     <p>(*) Universidad Aut&oacute;noma de Occidente. Cali. Colombia</p>     <p> Recibido julio 13 de 2010, aprobado noviembre 18 de 2011.</p> <hr>     <p><b>RESUMEN</b></p>     <p> El modelo de atenci&oacute;n visual <i>bottom-up</i> propuesto por Itti et al., 2000 &#91;1&#93;, ha sido un modelo popular en tanto exhibe cierta evidencia neurobiol&oacute;gica de la visi&oacute;n en primates. Este trabajo complementa el modelo computacional de este fen&oacute;meno desde la din&aacute;mica realista de una red neuronal. Asimismo, esta aproximaci&oacute;n se basa en la existencia de mapas topogr&aacute;ficos que representan la prominencia de los objetos del campo visual para la formaci&oacute;n de una representaci&oacute;n general (mapa de prominencia), esta representaci&oacute;n es la entrada de una red neuronal din&aacute;mica con interacciones locales y globales de colaboraci&oacute;n y competencia que convergen sobre las principales particularidades (objetos) de la escena.</p>     ]]></body>
<body><![CDATA[<p><b>PALABRAS CLAVES</b></p>     <p> Neurobiolog&iacute;a computacional, visi&oacute;n, sistema visual.</p>     <p><b>ABSTRACT</b></p>     <p> The bottom-up visual attention model proposed by Itti et al. 2000 &#91;1&#93;, has been a popular model since it exhibits certain neurobiological evidence of primates' vision. This work complements the computational model of this phenomenon using a neural network with realistic dynamics. This approximation is based on several topographical maps representing the objects' saliency that construct a general representation (saliency map), which is the input for a dynamic neural network, whose local and global collaborative and competitive interactions converge to the main particularities (objects) presented by the visual scene as well.</p>     <p><b>KEY WORDS</b></p>     <p> Computational neurobiology, vision, visual system.</p> <hr>     <p><font face="verdana" size="3"><b> INTRODUCCI&Oacute;N</b></font></p>     <p>El cerebro de los primates emplea alg&uacute;n procesamiento visual en serie, de la mano con el procesamiento masivo en paralelo &#91;1&#93;. Existe mucha evidencia experimental acumulada a favor de la existencia de dos mecanismos de control sobre los que la atenci&oacute;n visual se desarrolla &#91;2-5&#93;. El primero de ellos es conocido como procesamiento <i>bottom-up</i> o proceso de pre-atenci&oacute;n dependiente de la prominencia de los rasgos de los objetos e independiente de la tarea. El segundo es conocido como procesamiento <i>top-down</i> o proceso de atenci&oacute;n, mucho m&aacute;s lento que el anterior, controlado por la voluntad y por tanto, dependiente de la tarea espec&iacute;fica en ejecuci&oacute;n. Dichos procesamientos se dan sobre la concepci&oacute;n de una representaci&oacute;n neuronal de orden alto que selecciona parte de la informaci&oacute;n sensorial disponible, probablemente para reducir la complejidad del an&aacute;lisis de las escenas &#91;6&#93;, esta selecci&oacute;n se hace en forma de una regi&oacute;n espacial circunscrita conocida como "foco de atenci&oacute;n", &eacute;ste cambia de una locaci&oacute;n a otra de forma serial.</p>     <p> En los &uacute;ltimos a&ntilde;os se han establecido diferentes modelos de procesamiento <i>bottom-up</i> &#91;1&#93;, &#91;6&#93;-&#91;13&#93;, que reproducen el comportamiento del mecanismo neurobiol&oacute;gico dadas las hip&oacute;tesis establecidas por Treisman et al. &#91;3&#93;, seg&uacute;n las cuales las diferentes propiedades del espacio son codificadas en mapas de caracter&iacute;sticas diferentes en distintas regiones del cerebro. De acuerdo a este modelo, para resolver el problema de las vinculaciones (asociaciones) de los rasgos codificados por separado,  hay un mapa de prominencia (<i>saliency map</i>) que codifica conjunciones de caracter&iacute;sticas en la imagen. Este mapa maestro recibe entradas desde todos los mapas de caracter&iacute;sticas, pero retiene solamente las que distinguen el objeto de lo que lo rodea, de modo tal que las caracter&iacute;sticas espec&iacute;ficas y detalladas se quedan en los mapas de caracter&iacute;sticas iniciales (las que sirven para reconocer el objeto). De igual manera, la escena es susceptible a un proceso de atenci&oacute;n o b&uacute;squeda fina, s&oacute;lo despu&eacute;s de que las caracter&iacute;sticas hayan sido asociadas en una porci&oacute;n del mapa maestro. La mayor&iacute;a de modelos asumen que el fen&oacute;meno de atenci&oacute;n visual opera sobre representaciones primarias, i.e., mapas corticales topogr&aacute;ficos que codifican el espacio visual &#91;14&#93;.</p>     <p> En este trabajo se implementa un modelo de atenci&oacute;n visual <i>bottom-up</i> basado en representaciones primarias, i.e., una variedad de mapas que codifican diferentes caracter&iacute;sticas elementales (orientaci&oacute;n, color e intensidad) y su convergencia sobre una representaci&oacute;n general o mapa de prominencia. Adicionalmente, en ausencia de procesamiento <i>top-down</i> y con el &aacute;nimo de hacer el modelo lo m&aacute;s biol&oacute;gicamente plausible, se usa una red neuronal <i>winner-take-all</i> (WTA), cuya din&aacute;mica interna garantiza la generaci&oacute;n de los cambios de atenci&oacute;n sobre diferentes locaciones del mapa de prominencia.</p>     ]]></body>
<body><![CDATA[<p><font face="verdana" size="3"><b>M&Eacute;TODO</b></font></p>     <p>El modelo de atenci&oacute;n visual <i>bottom-up</i> propuesto en este trabajo se basa en la aproximaci&oacute;n de Itti et al. &#91;1&#93;, &#91;6&#93; (figura <a href="#v35a02e1">1</a>). Sin embargo, difiere en dos puntos importantes: como primera medida, se establece un modelo complementado del sistema de color doble-oponente propuesto, dada la evidencia experimental establecida por Conway, 2004 &#91;15&#93;.</p>     <p><a name="v35a02e1"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e1.jpg" /></p>     <p align="center"><b>Figura 1</b> Esquema general del modelo de atenci&oacute;n visual propuesto</p>     <p> El segundo se refiere a que, en tanto el modelo de atenci&oacute;n visual descrito por Itti et al. &#91;1&#93;, &#91;6&#93; en ausencia de procesamiento <i>top-down</i>, implementa una red WTA basada en el modelo LIF (<i>Leak Integrate and Fire</i>). En este trabajo se usa una red WTA utilizando la funci&oacute;n de Naka-Rushton &#91;5&#93;, &#91;16&#93; para describir los disparos de potencial de las neuronas, lo que resuelve el problema de los cambios en las locaciones atendidas por el modelo.</p>     <p> EXTRACCI&Oacute;N DE CARACTER&Iacute;STICAS VISUALES PRIMARIAS</p>     <p> Las caracter&iacute;sticas visuales de bajo nivel son extra&iacute;das directamente de la imagen en el color original sobre distintas escalas espaciales, para esto se utilizan filtros lineales en forma de pir&aacute;mide, i.e., pir&aacute;mides Gaussianas &#91;17&#93;. Una vez que se han calculado las pir&aacute;mides Gaussianas, cada caracter&iacute;stica es calculada en una estructura centro-alrededores (<i>center-surround</i>) relacionada estrechamente con los campos receptivos visuales. Las diferencias centro-alrededores son realizadas entre escalas amplias y finas para cada caracter&iacute;stica espec&iacute;fica: El centro receptivo corresponde a un p&iacute;xel al nivel <i>c</i> &#8712; {2, 3, 4} en la pir&aacute;mide y los alrededores al p&iacute;xel correspondiente en el nivel <i>s = c + &#948;</i>, con <i>&#948;</i> &#8712; {3, 4}.</p>     <p> <b>Mapas de Intensidad y Orientaci&oacute;n</b></p>     <p> El primer grupo de mapas de caracter&iacute;sticas est&aacute; relacionado con la intensidad de contraste, que en mam&iacute;feros es detectado por neuronas sensibles a centros oscuros sobre fondos luminosos o viceversa. Estos dos tipos de sensibilidad son calculados utilizando (1).</p>     ]]></body>
<body><![CDATA[<p><a name="v35a02e2"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e2.jpg" /></p>     <p> Donde <i>I(c)</i> es la se&ntilde;al de intensidad de centro, <i>I(s)</i> es la se&ntilde;al de intensidad de alrededores y el s&iacute;mbolo "&#920;" corresponde a la operaci&oacute;n de resta punto a punto entre diferentes escalas, llevando la imagen al nivel m&aacute;s fino.</p>     <p> Los mapas de orientaci&oacute;n son extra&iacute;dos utilizando pir&aacute;mides de Gabor <i>O(&#952;, &#963;)</i>, donde <i>&#952;</i> &#8712;  {0°, 45°, 90°, 135°}  &#91;18&#93;. De esta forma, se establece el contraste de orientaci&oacute;n entre las escalas de centro y alrededores seg&uacute;n (2).</p>     <p><a name="v35a02e3"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e3.jpg" /></p>     <p> Donde <i>O(c, &#952;)</i> y <i>O(s, &#952;)</i> son las se&ntilde;ales de orientaci&oacute;n de centro y alrededores, respectivamente.</p>     <p> <b>Sistema de Color Doble Oponente Complementado</b></p>     <p> La evidencia neurobiol&oacute;gica establece que los puntos de luz que selectivamente modulan cada clase de cono (L, M &oacute; S, o de forma imprecisa rojo, verde o azul) son destellados alrededor de los campos receptivos de las c&eacute;lulas de color V1 para mapear la estructura espacial de las entradas. Evidencia experimental &#91;15&#93;, &#91;19&#93;, sugiere que el procesamiento del color es mediado por un mecanismo antag&oacute;nico.</p>     <p> Conway &#91;15&#93;, ha establecido y documentado la existencia de c&eacute;lulas sensibles a otra clase de contraste de color. Seg&uacute;n sus experimentos, existen clases de c&eacute;lulas sensibles a longitudes de onda grandes en el centro (L), a la vez que sensibles a longitudes de onda medias y bajas en la periferia y viceversa, i.e., para est&iacute;mulos rojo-on (L+) o amarillo-on (S-), el centro de la c&eacute;lula se excita siendo crom&aacute;ticamente oponente al est&iacute;mulo verde-on (M+), al igual que el est&iacute;mulo azul-on (S+) en la periferia o alrededores; de forma similar ocurre para las c&eacute;lulas con centro sensible a est&iacute;mulos verdes. Dado este antagonismo y que los est&iacute;mulos para las c&eacute;lulas M y S se muestran alineados, se sugiere la existencia de c&eacute;lulas rojo-cyan, y de forma an&aacute;loga se propone la existencia de c&eacute;lulas verde-magenta.</p>     ]]></body>
<body><![CDATA[<p> Teniendo en cuenta que el antagonismo se da entre los colores rojo-verde, azul-amarillo, rojo-cyan y verde-magenta, se establecen los canales de color correspondientes y se construyen los mapas <i>RG(c,s)</i>, <i>BY(c,s)</i>, <i>Rc(c,s)</i> y <i>GM(c,s)</i> respectivamente, seg&uacute;n (3) a (10).</p>     <p><a name="v35a02e4"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e4.jpg" /></p>     <p> Donde las variables <i>R</i>,  <i>G</i>, <i>B</i> y <i>Y</i> corresponden a los canales de color rojo, verde, azul y amarillo, respectivamente. Para el c&aacute;lculo de estos canales, todos los valores resultantes por debajo de cero son llevados autom&aacute;ticamente a cero. <i>R(c)</i>, <i>G(c)</i>, <i>B(c)</i> y <i>Y(c)</i> son las se&ntilde;ales de centro correspondientes a los canales de color rojo, verde, azul y amarillo, respectivamente. De forma an&aacute;loga, <i>R(s)</i>, <i>G(s)</i>, <i>B(s)</i> y <i>Y(s)</i> son las se&ntilde;ales de alrededores correspondientes a los canales de color rojo, verde, azul y amarillo, respectivamente.</p>     <p> MAPA DE PROMINENCIA Y REPRESENTACI&Oacute;N CENTRAL</p>     <p> Una vez obtenidos los 54 mapas de caracter&iacute;sticas resultantes, se realizan combinaciones lineales entre mapas del mismo tipo. De esta forma se obtienen 3 mapas de caracter&iacute;sticas llamativas (conspicuity maps) y de una combinaci&oacute;n lineal de estos, se obtiene el mapa de prominencia final. Este procedimiento es mostrado por (11) a (14)</p>     <p><a name="v35a02e5"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e5.jpg" /></p>     <p> Donde , y  son los mapas de caracter&iacute;sticas llamativas de intensidad, color y orientaci&oacute;n, respectivamente y   es el mapa de prominencia final. El papel de la funci&oacute;n <i>N(&#8901;)</i> dentro de las ecuaciones es normalizar cada uno de los mapas de prominencia iterativamente, de tal forma que se establezca competencia entre las unidades del mapa de prominencia completo. </p>     <p> En ausencia de procesamiento <i>top-down</i>, la presente aproximaci&oacute;n implementa una red WTA en el espacio 2D de la imagen. El objetivo principal de esta red es dar una interpretaci&oacute;n de los datos de b&uacute;squeda visual respecto al cambio del foco de atenci&oacute;n. En un instante de tiempo determinado la m&aacute;xima prominencia dentro del mapa final definir&aacute; la locaci&oacute;n m&aacute;s saliente, a &eacute;sta estar&aacute; dirigida la atenci&oacute;n, luego, en instantes de procesamiento posteriores, dicha locaci&oacute;n es inhibida para que la atenci&oacute;n se desv&iacute;e hacia otros objetos o puntos salientes en el campo visual &#91;20&#93;-&#91;21&#93;. Si se utiliza la funci&oacute;n de Naka-Rushton para describir las frecuencias de disparo de las neuronas, las ecuaciones de la red estar&iacute;an dadas por (15) y (16).</p>     ]]></body>
<body><![CDATA[<p><a name="v35a02e6"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e6.jpg" /></p>     <p> Siendo: <i>C=</i>100.0; <i>k=</i>3.0; <i>&#963;=</i>120.0; <i>&tau;=</i>20.0; <i>U<sup>L</sup><sub>SE</sub>=</i>255.0</p>     <p> Donde <i>T</i> es la respuesta de cualquier neurona que reciba informaci&oacute;n acerca del objetivo (locaci&oacute;n de mayor prominencia), <i>D</i> es la respuesta de cada una de las <i>N</i> neuronas de distracci&oacute;n, la constante <i>k</i> determina la fuerza de la inhibici&oacute;n hacia atr&aacute;s (competencia entre neuronas dentro del mapa), las constantes <i>C, &tau;, &#963;</i> y <i>U<sup>L</sup><sub>SE</sub></i> son par&aacute;metros ajustables del sistema, donde <i>C</i> es la frecuencia de disparo m&aacute;xima del sistema, la constante de tiempo &tau; controla la frecuencia a la que las variables <i>T</i> y <i>D</i> tienden a su valor m&aacute;ximo (en milisegundos), el par&aacute;metro &#963; es la constante de semi-saturaci&oacute;n del sistema y <i>U<sup>L</sup><sub>SE</sub></i> define la eficacia sin&aacute;ptica entre las conexiones neuronales intracapa. Para todos los efectos, el est&iacute;mulo <i>E<sub>T</sub> > E<sub>D</sub></i>. Los par&aacute;metros de este modelo se ajustaron de acuerdo a lo que establece la literatura &#91;5&#93;, &#91;10&#93;.</p>     <p> Los pesos de conexi&oacute;n lateral entre las poblaciones neuronales dentro del mapa de prominencia se calculan seg&uacute;n (17).</p>     <p><a name="v35a02e7"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e7.jpg" /></p>     <p> Donde <i>w<sub>E</sub></i>=5.0;  <i>w<sub>I</sub></i>=250.0; &#963;<sub>E1</sub>=0.05*<i>X<sub>T</sub></i>; &#963;<sub>E2</sub>=0.05*<i>Y<sub>T</sub></i>; &#963;<sub>n</sub>=0.75*<i>X<sub>T</sub></i>; &#963;<sub>I2</sub>=0.75*<i>Y<sub>T</sub></i>, donde <i>X<sub>T</sub></i> y <i>Y<sub>T</sub></i> son el n&uacute;mero total de filas y columnas del mapa de prominencia.</p>     <p> Los par&aacute;metros libres son constantes que definen la forma de las funciones gaussianas respecto a las distancias <i>x</i> e <i>y</i>. Este esquema garantiza la existencia de interacciones competitivas centro-alrededores entre las caracter&iacute;sticas dentro del mapa de prominencia, acent&uacute;a la diferencia de actividad entre la prominencia del objetivo y los distractores y media en la sobrecompetencia que potencialmente presentar&iacute;an las poblaciones neuronales. </p>     <p><font face="verdana" size="3"><b>RESULTADOS</b></font></p>     ]]></body>
<body><![CDATA[<p> El modelo de atenci&oacute;n visual <i>bottom-up</i> detallado en este trabajo fue implementado en MatLab<sup>TM</sup> ver. 7.6.0. Asimismo los resultados de esta implementaci&oacute;n se muestran en la figura <a href="#v35a02e8">2</a>. Las im&aacute;genes de escenas naturales utilizadas para poner a prueba el modelo fueron tomadas de la  <i>MSRA Salient Object Database</i>  &#91;22&#93;, que contiene alrededor de 4500 im&aacute;genes en las que confluyen objetos sobresalientes en un rango diverso de complejidad de detecci&oacute;n, cada imagen contiene 300 x 400 p&iacute;xeles aproximadamente.</p>     <p><a name="v35a02e8"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e8.jpg" /></p>     <p align="center"><b>Figura 2.</b> Resultados del modelo de atenci&oacute;n visual <i>bottom-up</i>: (a) Imagen de entrada; (b) Mapa de intensidad; (c) Mapa de orientaci&oacute;n; (d) Mapa de color; (e) Mapa de prominencia; (f) Locaciones atendidas por el modelo en alrededor de 100 ms (l&iacute;nea s&oacute;lida) y en un rango de 200 a 400 ms (l&iacute;nea punteada)</p>     <p>DESEMPE&Ntilde;O GENERAL DEL MODELO Y COMPARACI&Oacute;N ENTRE SISTEMAS DE COLOR DOBLE OPONENTE</p>     <p>Para medir el desempe&ntilde;o del modelo, se midi&oacute; la consistencia del etiquetado de las im&aacute;genes de la base de datos siguiendo el procedimiento detallado en &#91;22&#93;. Se escogi&oacute; una muestra de las im&aacute;genes que presentaron alta consistencia en el etiquetado (de 80.0% a 100.0%) y finalmente se tom&oacute; una muestra aleatoria de 700 de estas im&aacute;genes. Este procedimiento fue realizado con el fin de obtener una medida del desempe&ntilde;o objetiva para escenarios reales, dado que en otros estudios esto ha sido catalogado como un proceso altamente subjetivo &#91;1&#93;, &#91;6&#93;, &#91;10&#93;.</p>     <p>Se tuvieron en cuenta las cantidades de verdaderos positivos y falsos positivos arrojadas en la prueba de desempe&ntilde;o para calcular el &iacute;ndice de exactitud (Ac), que representa la probabilidad de que el sistema entregue una respuesta adecuada ante un est&iacute;mulo determinado. En t&eacute;rminos generales el modelo presenta un desempe&ntilde;o satisfactorio respecto a las fijaciones esperadas por un sistema visual humano (para el caso de escenas naturales, Ac: 76.00% y para el caso de im&aacute;genes sint&eacute;ticas, aunque no se midi&oacute; formalmente en este trabajo, Ac: ~100.00% &#91;1&#93;, &#91;6&#93;).</p>     <p>Un aspecto importante que se evidencia en nuestro modelo es la implementaci&oacute;n del sistema de color doble oponente complementado. La influencia de este sistema sobre la prominencia de los objetos en escenas naturales es ilustrada por la figura <a href="#v35a02e9">3</a>. N&oacute;tese que existe una mejora significativa en los promedios de prominencia en la diferenciaci&oacute;n entre el objetivo y los distractores, esto muestra, adem&aacute;s de plausibilidad neurobiol&oacute;gica, que el modelo implementado robustece los mapas de color en la b&uacute;squeda de objetos sobresalientes.</p>     <p><a name="v35a02e9"></a></p>     <p align="center"><img src="img/revistas/ring/n35/n35a02e9.jpg" /></p>     ]]></body>
<body><![CDATA[<p align="center"><b>Figura 3.</b> Im&aacute;genes para la comparaci&oacute;n entre sistemas de color doble oponente: (a) Imagen de entrada; Sistema de color doble oponente: (b) cl&aacute;sico; (c) complementado</p>     <p>Por otra parte, la red neuronal WTA implementada en este modelo mejora los resultados de la red realizada en &#91;5&#93;, am&eacute;n de las interacciones locales entre las poblaciones de neuronas, cuyo efecto neto es el de colaboraci&oacute;n entre centros cercanos y competencia entre centros lejanos. Igualmente, este esquema es coherente con los pesos relativos (respecto al procesamiento visual) del centro de una escena y sus alrededores &#91;8&#93;.</p>     <p><font face="verdana" size="3"><b>CONCLUSIONES</b></font></p>     <p>El control de la atenci&oacute;n asociado al procesamiento <i>bottom-up</i> en primates ha sido modelado utilizando representaciones primarias sobre caracter&iacute;sticas b&aacute;sicas inherentes a los objetos del campo visual. Estas representaciones fueron calculadas de acuerdo a otros modelos establecidos en la literatura &#91;1&#93;, &#91;5&#93;-&#91;6&#93;, &#91;10&#93;-&#91;13&#93;. Sin embargo, en esta aproximaci&oacute;n se integra un sistema de color doble oponente modificado, que contribuye a una representaci&oacute;n completa de los mapas de color operando sobre los planos b&aacute;sicos <i>R</i>, <i>G</i> y <i>B</i>sugerida por la literatura &#91;15&#93;. Este sistema de color doble oponente prob&oacute; mejorar con suficiencia los mapas de color est&aacute;ndar hasta ahora conocidos en la literatura e implementados computacionalmente. Adicionalmente, el control de cambio de foco de atenci&oacute;n ha sido modelado utilizando una red neuronal WTA, cuya din&aacute;mica integra interacciones locales y competencia entre las unidades encargadas de dar la representaci&oacute;n que re&uacute;ne todas las caracter&iacute;sticas b&aacute;sicas de una escena.  El esquema propuesto present&oacute; una exactitud alta en im&aacute;genes de escenas naturales (76.00%), asimismo es neurobiol&oacute;gicamente plausible, pues engloba los hallazgos experimentales descritos hasta el momento en la literatura. Finalmente, este modelo constituye una fuerte base para diversas aplicaciones en visi&oacute;n artificial.</p> <hr>     <p><font face="verdana" size="3"><b>REFERENCIAS BIBLIOGR&Aacute;FICAS</b></font></p>     <!-- ref --><p>&#91;1&#93; L. Itti, C. Koch. "A saliency-based search mechanism for overt and covert shifts of visual attention". <i>Vision Research</i>, Vol. 40, 2000, pp. 1489–1506.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000078&pid=S0121-4993201100030000200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;2&#93; J.E. Hoffman. "Search through a sequentially presented visual display". <i>Perception &amp Psychophysics</i>, Vol. 23, 1978, pp. 1-11.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000080&pid=S0121-4993201100030000200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> </p>     <!-- ref --><p>&#91;3&#93; A. Treisman, M. Sykes, G. Gelade. "Selective attention stimulus integration". In <i>Attention and performance</i> VI. S. Dornie (ed.). Eds. N. J. Hilldale: Lawrence Erlbaum, 1977, pp. 333-361.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000082&pid=S0121-4993201100030000200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;4&#93; P. Verghese, K. Nakayama. "Stimulus discriminability in visual search". <i>Vision Research</i>, Vol. 34, 1994, pp. 2453-2467.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000084&pid=S0121-4993201100030000200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;5&#93; H.R. Wilson. "Computation by excitatory and inhibitory networks". In <i>Spikes, Decisions and Actions: The Dynamical Foundations of Neuroscience.</i> H.R. Wilson (ed.). Oxford University Press, 2004, pp. 89-115.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000086&pid=S0121-4993201100030000200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#091;6&#093; L. Itti, C. Koch, E. Niebur. "A Model of Saliency-Based Visual Attention for Rapid Scene Analysis". <i>IEEE Trans. Patt. Anal. Mach. Intel</i>, Vol. 20, 1998, pp. 1254-1259[.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000088&pid=S0121-4993201100030000200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;7&#93; R.J. Peters, A. Iyer, L. Itti, C. Koch. "Components of bottom-up gaze allocation in natural images". <i>Vision Research</i>, Vol. 45, 2005, pp. 2397-2416.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000090&pid=S0121-4993201100030000200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;8&#93; P.J. Burt. "Attention Mechanisms for vision in a dynamic world". <i>Proceedings of 9th International Conference on Pattern Recognition</i>, 1988, pp. 977-987.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000092&pid=S0121-4993201100030000200008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;9&#93; Z. Li. "A saliency map in primary visual cortex". <i>Trends in Cognitive Science</i>, Vol. 6, 2002, pp. 9-16.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000094&pid=S0121-4993201100030000200009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;10&#93; M. DeBrecht, J. Saiki. "A neural network implementation of a saliency map model". <i>Neural Networks</i>, Vol. 19, 2006, pp. 1467–1474.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000096&pid=S0121-4993201100030000200010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;11&#93; D. Gao, V. Mahadevan, N. Vasconcelos. "The discriminant center-surround hypothesis for bottom-up saliency". <i>Proceedings of Neural Information Processing Systems</i>, Vancouver, Canada, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000098&pid=S0121-4993201100030000200011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;12&#93; J.H. Reynolds, D.J. Heeger. "The normalization model of attention". <i>Neuron</i>, Vol. 61, 2009, pp. 168-185.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000100&pid=S0121-4993201100030000200012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;13&#93; S.J. Park, K.H. An, M. Lee. "Saliency map model with adaptive masking based on independent component analysis". <i>Neurocomputing</i>, Vol. 49, 2002, pp. 417-422.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000102&pid=S0121-4993201100030000200013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;14&#93; R. Desimone, J. Duncan. "Neural mechanisms of selective visual attention". <i>Annu. Rev. Neurosci.</i>, Vol. 18, 1995, pp. 193-222.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000104&pid=S0121-4993201100030000200014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;15&#93; B.R. Conway. "Spatial structure of cone inputs to color cells in alert macaque primary visual cortex (V-1)". <i>The Journal of Neuroscience</i>, Vol. 21, 2004, pp. 2768-2783.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000106&pid=S0121-4993201100030000200015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;16&#93; K.I. Naka, W.A. Rushton. "S-potentials from colour units in the retina of fish". <i>J. Physiol</i>, Vol. 185, 1966, pp. 584-599.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000108&pid=S0121-4993201100030000200016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;17&#93; P.J. Burt, E. H. Adelson. "The Laplacian pyramid as a compact image code". <i>IEEE Trans. Com</i>., Vol. 31, 1983, pp. 532-540.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000110&pid=S0121-4993201100030000200017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;18&#93; H. Greenspan, S. Belongie, R. Goodman, P. Perona, S. Rakshit, C. H. Anderson. "Overcomplete Steerable Pyramid Filters and Rotation Invariance". Proc. <i>IEEE Computer Vision and Pattern Recognition</i>, 1994, pp. 222-228.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000112&pid=S0121-4993201100030000200018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;19&#93; S. Engel, X. Zhang, B. Wandell. "Colour Tuning in Human Visual Cortex Measured With Functional Magnetic Resonance Imaging". <i>Nature</i>, Vol. 388, 1997, pp. 68–71.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000114&pid=S0121-4993201100030000200019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;20&#93; R.M. Klein. "Inhibition of return". <i>Trends Cogn. Sci.</i>, Vol. 4, 2000, pp. 138–147&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000116&pid=S0121-4993201100030000200020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>&#91;21&#93; S.L. Macknik, S. Martinez-Conde. "The role of feedback in visual attention and awareness". <i>Cognitive Neurosciences</i>, Ed. Gazzinga, MIT Press, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000117&pid=S0121-4993201100030000200021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>&#91;22&#93; T. Liu, J. Sun, N.N. Zheng, X. Tang, H.Y. Shum. "Learning to detect a salient object". In: <i>Proceedings of IEEE Computer Society Conference on Computer and Vision Pattern Recognition</i>, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000119&pid=S0121-4993201100030000200022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p> <hr> </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Itti]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Koch]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A saliency-based search mechanism for overt and covert shifts of visual attention]]></article-title>
<source><![CDATA[]]></source>
<year>2000</year>
<volume>40</volume>
<page-range>1489-1506</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hoffman]]></surname>
<given-names><![CDATA[J.E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Search through a sequentially presented visual display]]></article-title>
<source><![CDATA[]]></source>
<year>1978</year>
<volume>23</volume>
<page-range>1-11</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Treisman]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Sykes]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Gelade]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Selective attention stimulus integration]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Dornie]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Attention and performance]]></source>
<year>1977</year>
<page-range>333-361</page-range><publisher-name><![CDATA[Lawrence Erlbaum]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Verghese]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Nakayama]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Stimulus discriminability in visual search]]></article-title>
<source><![CDATA[]]></source>
<year>1994</year>
<volume>34</volume>
<page-range>2453-2467</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wilson]]></surname>
<given-names><![CDATA[H.R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Computation by excitatory and inhibitory networks]]></article-title>
<source><![CDATA[Spikes, Decisions and Actions: The Dynamical Foundations of Neuroscience]]></source>
<year>2004</year>
<page-range>89-115</page-range><publisher-name><![CDATA[Oxford University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Itti]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Koch]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Niebur]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Model of Saliency-Based Visual Attention for Rapid Scene Analysis]]></article-title>
<source><![CDATA[]]></source>
<year>1998</year>
<volume>20</volume>
<page-range>1254-1259</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Peters]]></surname>
<given-names><![CDATA[R.J]]></given-names>
</name>
<name>
<surname><![CDATA[Iyer]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Itti]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Koch]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Components of bottom-up gaze allocation in natural images]]></article-title>
<source><![CDATA[]]></source>
<year>2005</year>
<volume>45</volume>
<page-range>2397-2416</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burt]]></surname>
<given-names><![CDATA[P.J]]></given-names>
</name>
</person-group>
<source><![CDATA[Attention Mechanisms for vision in a dynamic world]]></source>
<year>1988</year>
<page-range>977-987</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A saliency map in primary visual cortex]]></article-title>
<source><![CDATA[]]></source>
<year>2002</year>
<volume>6</volume>
<page-range>9-16</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DeBrecht]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Saiki]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A neural network implementation of a saliency map model]]></article-title>
<source><![CDATA[]]></source>
<year>2006</year>
<volume>19</volume>
<page-range>1467-1474</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gao]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Mahadevan]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[Vasconcelos]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<source><![CDATA[The discriminant center-surround hypothesis for bottom-up saliency]]></source>
<year>2007</year>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Reynolds]]></surname>
<given-names><![CDATA[J.H]]></given-names>
</name>
<name>
<surname><![CDATA[Heeger]]></surname>
<given-names><![CDATA[D.J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The normalization model of attention]]></article-title>
<source><![CDATA[]]></source>
<year>2009</year>
<volume>61</volume>
<page-range>168-185</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Park]]></surname>
<given-names><![CDATA[S.J]]></given-names>
</name>
<name>
<surname><![CDATA[An]]></surname>
<given-names><![CDATA[K.H]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Saliency map model with adaptive masking based on independent component analysis]]></article-title>
<source><![CDATA[]]></source>
<year>2002</year>
<volume>49</volume>
<page-range>417-422</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Desimone]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Duncan]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural mechanisms of selective visual attention]]></article-title>
<source><![CDATA[]]></source>
<year>1995</year>
<volume>18</volume>
<page-range>193-222</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Conway]]></surname>
<given-names><![CDATA[B.R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Spatial structure of cone inputs to color cells in alert macaque primary visual cortex (V-1)]]></article-title>
<source><![CDATA[]]></source>
<year>2004</year>
<volume>21</volume>
<page-range>2768-2783</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Naka]]></surname>
<given-names><![CDATA[K.I]]></given-names>
</name>
<name>
<surname><![CDATA[Rushton]]></surname>
<given-names><![CDATA[W.A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[S-potentials from colour units in the retina of fish]]></article-title>
<source><![CDATA[]]></source>
<year>1966</year>
<volume>185</volume>
<page-range>584-599</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burt]]></surname>
<given-names><![CDATA[P.J]]></given-names>
</name>
<name>
<surname><![CDATA[Adelson]]></surname>
<given-names><![CDATA[E. H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Laplacian pyramid as a compact image code]]></article-title>
<source><![CDATA[]]></source>
<year>1983</year>
<volume>31</volume>
<page-range>532-540</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Greenspan]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Belongie]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Goodman]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Perona]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Rakshit]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Anderson]]></surname>
<given-names><![CDATA[C. H]]></given-names>
</name>
</person-group>
<source><![CDATA[Overcomplete Steerable Pyramid Filters and Rotation Invariance]]></source>
<year>1994</year>
<page-range>222-228</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Engel]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Wandell]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Colour Tuning in Human Visual Cortex Measured With Functional Magnetic Resonance Imaging]]></article-title>
<source><![CDATA[]]></source>
<year>1997</year>
<volume>388</volume>
<page-range>68-71</page-range></nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Klein]]></surname>
<given-names><![CDATA[R.M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Inhibition of return]]></article-title>
<source><![CDATA[]]></source>
<year>2000</year>
<volume>4</volume>
<page-range>138-147</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Macknik]]></surname>
<given-names><![CDATA[S.L]]></given-names>
</name>
<name>
<surname><![CDATA[Martinez-Conde]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The role of feedback in visual attention and awareness]]></article-title>
<source><![CDATA[Cognitive Neurosciences]]></source>
<year>2009</year>
<publisher-name><![CDATA[Ed. GazzingaMIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Sun]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Zheng]]></surname>
<given-names><![CDATA[N.N]]></given-names>
</name>
<name>
<surname><![CDATA[Tang]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Shum]]></surname>
<given-names><![CDATA[H.Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Learning to detect a salient object]]></article-title>
<source><![CDATA[Proceedings of IEEE Computer Society Conference on Computer and Vision Pattern Recognition]]></source>
<year>2007</year>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
