<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0120-6230</journal-id>
<journal-title><![CDATA[Revista Facultad de Ingeniería Universidad de Antioquia]]></journal-title>
<abbrev-journal-title><![CDATA[Rev.fac.ing.univ. Antioquia]]></abbrev-journal-title>
<issn>0120-6230</issn>
<publisher>
<publisher-name><![CDATA[Facultad de Ingeniería, Universidad de Antioquia]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0120-62302011000400018</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Análisis de dependencias no lineales utilizando redes neuronales artificiales]]></article-title>
<article-title xml:lang="en"><![CDATA[Analysis of nonlinear dependences using artificial neural networks]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez]]></surname>
<given-names><![CDATA[Carlos A]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[Juan D]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia Facultad de Minas ]]></institution>
<addr-line><![CDATA[MedellÍn ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>09</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>09</month>
<year>2011</year>
</pub-date>
<numero>60</numero>
<fpage>182</fpage>
<lpage>193</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0120-62302011000400018&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0120-62302011000400018&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0120-62302011000400018&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En este artículo, se desarrolla una nueva técnica para detectar dependencias no lineales en series temporales, basadas en el uso de una red neuronal autorregresiva y el concepto de coeficiente de correlación. Teniendo en cuenta que el modelo de redes neuronales utilizado es capaz de aproximar cualquier función en un dominio compacto, las medidas propuestas son capaces de detectar no-linealidades en los datos. Nuestra técnica es probada para varios conjuntos de datos tanto simulados como reales, y comparada con las funciones clásicas de autocorrelación simple y parcial; los resultados muestran que en los casos lineales, las medidas propuestas tienen un comportamiento similar a las autocorrelaciones simple y parcial, pero en los casos no-lineales ellas son capaces de detectar otras relaciones no-lineales.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In this paper, we develop a new technique for detecting nonlinear dependences in time series, based on the use of an autoregressive neural network and the concept of coefficient of correlation. Taking into account that the employed neural network model is able to approximate any function in a compact domain, the proposed measures are able to detect nonlinearities in the data. Our technique is tested for various simulated and real datasets, and compared with classical functions of simple and partial autocorrelations; the results show that the in the linear cases the proposed measures have a similar behavior to the simple and partial autocorrelations, but in the nonlinear cases they are able to detect other nonlinear relationships.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[red neuronal autorregresiva]]></kwd>
<kwd lng="es"><![CDATA[modelado no lineal de series temporales]]></kwd>
<kwd lng="es"><![CDATA[correlación múltiple]]></kwd>
<kwd lng="es"><![CDATA[análisis de correlaciones en sistemas no lineales]]></kwd>
<kwd lng="en"><![CDATA[autoregressive neural network]]></kwd>
<kwd lng="en"><![CDATA[nonlinear time series modelling]]></kwd>
<kwd lng="en"><![CDATA[multiple correlation]]></kwd>
<kwd lng="en"><![CDATA[analysis of correlation in nonlinear systems]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="center"><font face="Verdana" size="4"> <b>An&aacute;lisis de dependencias no lineales utilizando redes neuronales artificiales</b></font></p>      <p align="center"><font face="Verdana" size="4"> <b>Analysis of nonlinear dependences using artificial neural networks</b></font></p>      <p> <font face="Verdana" size="2"> <i>Carlos A. Mart&iacute;nez, Juan D. Vel&aacute;squez<sup>*</sup></i></font></p>       <p> <font face="Verdana" size="2">Facultad de Minas. Universidad Nacional de Colombia. A.A. 1027. Medell&Iacute;n, Colombia</font></p>      <br>  <hr noshade size="1">      <p><font face="Verdana" size="3"><b>Resumen</b></font></p>      <p><font face="Verdana" size="2">En  este art&iacute;culo, se desarrolla una nueva t&eacute;cnica para detectar dependencias no  lineales en series temporales, basadas en el uso de una red neuronal  autorregresiva y el concepto de coeficiente de correlaci&oacute;n. Teniendo en cuenta  que el modelo de redes neuronales utilizado es capaz de aproximar cualquier  funci&oacute;n en un dominio compacto, las medidas propuestas son capaces de detectar  no-linealidades en los datos. Nuestra t&eacute;cnica es probada para varios conjuntos  de datos tanto simulados como reales, y comparada con las funciones cl&aacute;sicas de  autocorrelaci&oacute;n simple y parcial; los resultados muestran que en los casos  lineales, las medidas propuestas tienen un comportamiento similar a las  autocorrelaciones simple y parcial, pero en los casos no-lineales ellas son  capaces de detectar otras relaciones no-lineales.</font></p>      <p><font face="Verdana" size="2"><i>Palabras clave: </i>red neuronal autorregresiva, modelado no lineal de  series temporales, correlaci&oacute;n m&uacute;ltiple, an&aacute;lisis de correlaciones en sistemas  no lineales.</font></p>  <hr noshade size="1">      <p><font face="Verdana" size="3"><b>Abstract</b></font></p>       <p><font face="Verdana" size="2">In  this paper, we develop a new technique for detecting nonlinear dependences in  time series, based on the use of an autoregressive neural network and the  concept of coefficient of correlation. Taking into account that the employed  neural network model is able to approximate any function in a compact domain,  the proposed measures are able to detect nonlinearities in the data. Our  technique is tested for various simulated and real datasets, and compared with  classical functions of simple and partial autocorrelations; the results show  that the in the linear cases the proposed measures have a similar behavior to the simple and partial  autocorrelations, but in the nonlinear cases they are able to detect other  nonlinear relationships.</font></p>     ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2"><i>Keywords: </i>autoregressive neural network, nonlinear time  series modelling, multiple correlation, analysis of correlation in nonlinear  systems.</font></p>   <hr noshade size="1">      <p><font face="Verdana" size="3"><b>Introducci&oacute;n</b></font></p>         <p><font face="Verdana" size="2">La  caracterizaci&oacute;n, el modelado y la predicci&oacute;n de series temporales son tres  problemas fundamentales en diversas &aacute;reas del conocimiento, tales como la  ingenier&iacute;a, la econom&iacute;a y las ciencias sociales &#91;1&#93;. La caracterizaci&oacute;n busca  determinar las propiedades fundamentales de la serie bajo estudio &#91;2&#93;; en el  modelado se pretende encontrar una descripci&oacute;n matem&aacute;tica (modelo) de la din&aacute;mica  de largo plazo que sigue la serie, tal que se cumplan los supuestos b&aacute;sicos en  que se basa el modelo usado. Finalmente, el objetivo de la predicci&oacute;n es  desarrollar modelos que permitan determinar con la mayor precisi&oacute;n posible, los  valores futuros de la serie investigada, para uno o m&aacute;s periodos hacia delante.     <br>    <br> Para  atacar los problemas mencionados, se ha desarrollado numerosos modelos desde  diferentes &aacute;reas como la Estad&iacute;stica y la Inteligencia Computacional, los  cuales incluyen t&eacute;cnicas como los m&eacute;todos estad&iacute;sticos, las redes neuronales,  los sistemas basados en reglas, y los sistemas h&iacute;bridos &#91;1&#93;.     <br>    <br> Un paso fundamental dentro de  pr&aacute;cticamente todas las metodolog&iacute;as de dise&ntilde;o de las t&eacute;cnicas mencionadas,  corresponde a la determinaci&oacute;n de las variables explicativas del modelo; v&eacute;ase  por ejemplo &#91;3, 4&#93; entre muchos otros. Dichas variables explicativas pueden  estar conformadas por los valores rezagados de la propia variable explicada o  por los valores actuales o rezagados de otras variables ex&oacute;genas al modelo. Box  y Jenkins &#91;3&#93; sientan las bases fundamentales de la detecci&oacute;n de dichas  variables relevantes, al incorporar el uso de las funciones de autocorrelaci&oacute;n  simple y parcial, y correlaciones cruzadas simple y parcial, dentro de su  metodolog&iacute;a de especificaci&oacute;n.    <br>    <br> No  obstante, el uso de las medidas de dependencia ya mencionadas es de utilidad  dudosa cuando las relaciones existentes entre la variable dependiente y las  variables explicativas son de car&aacute;cter no-lineal. Particularmente, Granger y  Lin &#91;5&#93; presentan ejemplos de relaciones determin&iacute;sticas no-lineales para las  cuales el autocorrelograma no presenta dependencias seriales significativamente  diferentes de cero. Esta es la raz&oacute;n para que diversos investigadores hayan  propuesto medidas alternas a la correlaci&oacute;n lineal para detectar relaciones  no-lineales; por ejemplo, Cardona &amp; Vel&aacute;squez &#91;6&#93; analizan la selecci&oacute;n de  caracter&iacute;sticas relevantes en problemas de regresi&oacute;n usando informaci&oacute;n mutua;  Granger y Ter&auml;svirta &#91;4&#93; sugieren el uso del coeficiente de correlaci&oacute;n  calculado para distintas transformaciones tanto de la variable dependiente como  de los regresores. Particularmente, Nielsen &amp; Madsen &#91;7&#93; proponen el uso de  una medida de correlaci&oacute;n no lineal basada en el uso de una aproximaci&oacute;n no  param&eacute;trica a partir de funciones de base entre la variable dependiente y el  regresor considerado; la principal debilidad de esta propuesta est&aacute;  relacionada con la selecci&oacute;n del n&uacute;mero de funciones base a utilizar, y el  cubrimiento sobre los datos que realiza cada una de ellas.     <br>    ]]></body>
<body><![CDATA[<br> El  objetivo principal de este trabajo es modificar la propuesta metodol&oacute;gica  realizada por Nielsen &amp; Madsen &#91;7&#93;, reemplazando el aproximador propuesto  por una red neuronal artificial autorregresiva (ARNN), la cual combina el  modelo autorregresivo tradicional con un perceptr&oacute;n multicapa &#91;8 - 10&#93;; y  aplicar la propuesta realizada a la detecci&oacute;n de la relaci&oacute;n de dependencia  para varios modelos. En la aproximaci&oacute;n presentada en este art&iacute;culo, el uso de  la ARNN requiere que el analista defina &uacute;nicamente la cantidad de neuronas en  la capa oculta del modelo, por lo que evita entrar a seleccionar el tipo de  funci&oacute;n base utilizada, la cantidad de funciones, y el cubrimiento de cada una  de ellas, simplificando el proceso.     <br>    <br> Para  alcanzar los objetivos propuestos, el resto de este art&iacute;culo est&aacute; organizado  como sigue. En la pr&oacute;xima secci&oacute;n, se discute el concepto de dependencia desde  el punto de vista de los modelos de regresi&oacute;n, y se presentan algunas de las  principales t&eacute;cnicas que se han propuesto para realizar su detecci&oacute;n, haciendo  &eacute;nfasis en la propuesta metodol&oacute;gica de Nielsen &amp; Madsen &#91;7&#93;.  Posteriormente, se describe el modelo ARNN y se presenta la propuesta de  aproximaci&oacute;n metodol&oacute;gica. Despu&eacute;s, se discuten los casos de aplicaci&oacute;n  desarrollados en este trabajo. Finalmente, se concluye en la &uacute;ltima secci&oacute;n.</font></p>       <p> <font face="Verdana" size="2"><b><i>T&eacute;cnicas de an&aacute;lisis de la dependencia entre dos variables</i></b></font></p>        <p><font face="Verdana" size="2"> En  esta secci&oacute;n se describen algunas de las principales t&eacute;cnicas que han sido  propuestas en la literatura para la detecci&oacute;n de la dependencia entre dos o m&aacute;s  variables.      <br>    <br>    El  uso de los correlogramas ha sido ampliamente difundido en la detecci&oacute;n de  relaciones lineales, debido principalmente, a que estas medidas de relaci&oacute;n son  una parte fundamental dentro de la estrategia de especificaci&oacute;n de los modelos  de Box y Jenkins &#91;3&#93;. Ellas permiten determinar que regresores tienen una  influencia significativamente diferente de cero sobre la variable explicada, e  igualmente detectar si existen correlaciones en los residuales del modelo. La  funci&oacute;n de autocorrelaci&oacute;n simple permite medir el nivel de dependencia entre <i>y<sub>t</sub></i> y <i>y<sub>t-k</sub></i> cuando su relaci&oacute;n es lineal.      <br>    <br>    El  autocorrelograma simple corresponde al gr&aacute;fico obtenido al relacionar el valor  de la funci&oacute;n de autocorrelaci&oacute;n simple versus el rezago <i>k</i>. La funci&oacute;n de autocorrelaci&oacute;n  parcial permite estimar num&eacute;ricamente la relaci&oacute;n entre <i>y<sub>t</sub></i> y <i>y<sub>t-k</sub></i> eliminando la influencia de los  rezagos intermedios <i>y<sub>t-1</sub></i>,...,<i>y<sub>t-k-1</sub></i> De manera similar,  la funci&oacute;n de correlaci&oacute;n cruzada, <i>c<sub>k</sub></i>, mide la dependencia lineal entre  la variable dependiente <i>y<sub>t</sub></i> y una variable ex&oacute;gena <i>x<sub>t-k</sub></i>, mientras que la funci&oacute;n de  correlaci&oacute;n cruzada parcial, realiza esta misma medici&oacute;n pero eliminando la  influencia de otros regresores.        <br>    ]]></body>
<body><![CDATA[<br>    Granger  y Ter&auml;svirta &#91;4&#93; sugieren algunas medidas de correlaci&oacute;n derivadas de las  definiciones anteriores que podr&iacute;an ser potencialmente &uacute;tiles en el an&aacute;lisis de  series temporales; todas ellas se basan en la transformaci&oacute;n de la variable  dependiente y el regresor considerado usando las funciones g() y f()  respectivamente, tal que se maximiza la funci&oacute;n de correlaci&oacute;n.  Espec&iacute;ficamente, las funciones de correlaci&oacute;n propuestas son las siguientes:        <br>    <br>    -El  coeficiente de correlaci&oacute;n m&aacute;xima:    <br>      <p> <img src="/img/revistas/rfiua/n60/n60a18e01.gif"></p>    -El m&aacute;ximo de la correlaci&oacute;n media:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e02.gif"></p>    -El m&aacute;ximo coeficiente de  regresi&oacute;n:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e03.gif"></p>    -En la regresi&oacute;n de    <br>        ]]></body>
<body><![CDATA[<p> <img src="/img/revistas/rfiua/n60/n60a18e04.gif"></p>    En  donde las funciones g() y f() se escogen de tal forma que se maximice la medida  de relaci&oacute;n utilizada.    <br>    <br>    Tong &#91;11&#93; indica que el an&aacute;lisis de  los gr&aacute;ficos de dispersi&oacute;n entre <i>y<sub>t</sub></i> y <i>y<sub>t-k</sub></i> es un m&eacute;todo alternativo que puede  ser &uacute;til para la detecci&oacute;n de relaciones no lineales y comportamientos  ca&oacute;ticos. Estos diagramas se construyen uniendo los puntos <em>(</em><i>y<sub>t</sub> , y<sub>t-k</sub></i><em>) </em>y <em>(</em><i>y<sub>t+1</sub></i> y <i>y<sub>t+1-k</sub></i><em>) </em>mediante l&iacute;neas.    <br>    <br>    Otra media de la relaci&oacute;n no lineal  es la informaci&oacute;n mutua (IM); esta es una m&eacute;trica que permite determinar la  dependencia entre un conjunto de variables como una medida de distancia entre  la distribuci&oacute;n conjunta actual entre los datos, <em>p(x, y)</em> y la distribuci&oacute;n que tendr&iacute;an si  ellos fuesen estad&iacute;sticamente independientes, esto es, su distribuci&oacute;n conjunta  de probabilidades estar&iacute;a dada por <em>p(x) p(y)</em>; esta medida de distancia es:     <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e05.gif"></p>    Cardona  y Vel&aacute;squez &#91;6&#93; analizan el uso de esta t&eacute;cnica en el caso de los modelos  generales de regresi&oacute;n y desarrollan un estad&iacute;stico para determinar cuando la  IM es significativamente diferente de cero. La distribuci&oacute;n de probabilidad de  los datos se realiza mediante t&eacute;cnicas no param&eacute;tricas. La principal desventaja  de esta medida de relaci&oacute;n, est&aacute; relacionada con la gran cantidad de datos  requeridos para realizar una estimaci&oacute;n suficientemente precisa de la  distribuci&oacute;n de probabilidades de los datos a trav&eacute;s de t&eacute;cnicas no  param&eacute;tricas.      <br>    <br>    Por  otra parte, Nielsen y Madsen &#91;7&#93; indican que los coeficientes de correlaci&oacute;n  simple y parcial est&aacute;n estrechamente vinculados con el coeficiente de  determinaci&oacute;n. As&iacute;, el coeficiente de correlaci&oacute;n m&uacute;ltiple al cuadrado, &rho;<sup>2</sup><sub>0(1...k)</sub>,  entre la variable aleatoria dependiente Y y los regresores X<sub>1</sub>, ...,X<sub>k</sub> puede ser calculado como:     <br>        ]]></body>
<body><![CDATA[<p> <img src="/img/revistas/rfiua/n60/n60a18e06.gif"></p>    Donde <i>V</i>&#91;<i>Y<sub>t</sub></i>&#93; es la varianza de la variable  dependiente;  <i>V</i>&#91;<i>Y<sub>t</sub></i>|<i>Y<sub>t-k</sub></i>&#93;  es la varianza de los residuales <i>e<sub>t</sub></i>.    <br>    <br>    El  estimador de m&aacute;xima verosimilitud de &rho;<sup>2</sup><sub>0(1...k)</sub> calculado a  partir de los datos es:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e07.gif"></p>    Donde     <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e08.gif"></p>    y  <b><i>S</i></b> <sub>0(1...k)</sub> es la sumatoria de los residuos de la aproximaci&oacute;n de y. a partir de los regresores <em>x<sub>1</sub>,...,x<sub>k</sub></em>. El coeficiente de correlaci&oacute;n  m&uacute;ltiple representa la reducci&oacute;n en la varianza de Y causada por los regresores <i>x<sub>1</sub>,..., x<sub>k</sub></i>.    <br>    <br>    Igualmente,  el coeficiente de correlaci&oacute;n parcial, <i>&rho;<sup>2</sup><sub>(0k)(1...k-1)</sub></i>, entre <i>Y</i> y <i>X<sub>k</sub></i>, dadas las variables<em> X<sub>1</sub>,... ,X<sub>k-1</sub></em>, permite medir la relaci&oacute;n de  dependencia entre  <i>Y</i> y <i>X<sub>k</sub></i> una vez se a eliminado el efecto  de<em> X<sub>1</sub>,... ,X<sub>k-1</sub></em>. Esto es:    <br>      ]]></body>
<body><![CDATA[<p> <img src="/img/revistas/rfiua/n60/n60a18e09.gif"></p>    Su  estimaci&oacute;n a partir de la muestra de datos se realiza como:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e10.gif"></p>    A  partir de las definiciones anteriores, Nielsen y Madsen &#91;7&#93; definen la funci&oacute;n  de dependencia para el rezago <i>k</i> como:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e11.gif"></p>    Donde <i>a</i> y <i>b</i> son los valores m&iacute;nimo y m&aacute;ximo  sobre las observaciones; <i>f</i>() es un modelo de regresi&oacute;n que  aproxima la relaci&oacute;n entre  <i>Y</i> y <i>X<sub>k</sub></i>.  Igualmente, la funci&oacute;n de dependencia parcial para el rezago <i>k</i>, se define como:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e12.gif"></p>   <em>Propuesta de  aproximaci&oacute;n metodol&oacute;gica</em>    <br>    <br>    La aproximaci&oacute;n metodol&oacute;gica  presentada en este art&iacute;culo, se basa en la utilizaci&oacute;n de una red neuronal  autorregresiva para modelar la dependencia entre <i>Y</i> y <i>X<sub>k</sub></i>, que permite estimar las varianzas  condicionales definidas en la ecuaci&oacute;n (10). As&iacute;, <i>V</i>&#91;<i>Y</i>|<i>X<sub>1</sub>,...,X<sub>k</sub></i>&#93; puede ser estimada como la  varianza de los residuales obtenidos al aproximar la variable Y mediante el modelo propuesto  usando como regresores las variables <i>X<sub>1</sub>,...,X<sub>k</sub></i>.</font></p>         <p> <font face="Verdana" size="2"><b><i>La red neuronal autorregresiva </i></b></font></p>       ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">Una  red neuronal autorregresiva (ARNN) se obtiene al combinar un modelo lineal  autoregresivo (AR) con un perceptron multicapa con una &uacute;nica capa oculta; v&eacute;ase  &#91;8-10&#93;. Este es un modelo que permite combinar las ventajas de los modelos  autoregresivos y de las redes neuronales, de tal forma que es m&aacute;s f&aacute;cil  capturar din&aacute;micas complejas. As&iacute; para una ARNN, la variable dependiente <i>y<sub>t</sub></i> es obtenida despu&eacute;s de aplicar la  funci&oacute;n no lineal:     <br>      <p> <img src="/img/revistas/rfiua/n60/n60a18e13.gif"></p> a  un conjunto de regresores  <i>x<sub>t</sub><sup>(i)</sup></i>  (para  <i>i</i>=1,...,<i>I</i>), con <i>e<sub>t</sub>= &sigma;&epsilon;<sub>t</sub></i>, obtenida al asumir que los  residuales e<em>t</em> siguen una distribuci&oacute;n normal con  media cero y varianza desconocida. Los regresores pueden est&aacute;n conformados por  los retardos de   <i>y<sub>t</sub></i>, as&iacute; como  por variables ex&oacute;genas que pueden dar cuenta del comportamiento de  <i>y<sub>t</sub></i>. <i>G</i>() es la funci&oacute;n de activaci&oacute;n de las neuronas de la capa oculta. <i>&sigma;</i> es la desviaci&oacute;n est&aacute;ndar de los  errores. <i>&epsilon;<sub>t</sub></i> es una variable aleatoria que  sigue una distribuci&oacute;n normal est&aacute;ndar. <i>H</i> es el n&uacute;mero de neuronas en la  capa oculta;  <i>I</i> es el n&uacute;mero de  regresores.  <i>&sigma;<sub>y</sub></i> es la  desviaci&oacute;n est&aacute;ndar de  <i>y<sub>t</sub></i>; su uso  evita tener que transformar  <i>y<sub>t</sub></i> para  restringir sus valores al rango de la funci&oacute;n <i>G</i>(). Una representaci&oacute;n pict&oacute;rica  de este modelo es presentada en la <a href="#Figura1">figura 1</a>.    <br>     <p align="center"><img src="/img/revistas/rfiua/n60/n60a18i01.gif" ><a name="Figura1"></a></p> Los par&aacute;metros del modelo (&Omega;= &#91;<em>&beta;<sub>*</sub>,&beta;<sub>h</sub>,&phi;<sub>i</sub>,&alpha;<sub>*,h</sub>,&alpha;<sub>i,h</sub></em>&#93;, para <em>h=1,...,H;  i=1,...,I</em>) &nbsp;son obtenidos maximizando el logaritmo de la funci&oacute;n  de verosimilitud de los errores:    <br>      <p> <img src="/img/revistas/rfiua/n60/n60a18e14.gif"></p> Mediante  alguna t&eacute;cnica de optimizaci&oacute;n, usualmente basada en gradientes, teniendo en cuenta  que <i>T</i> corresponde al n&uacute;mero de  observaciones. La maximizaci&oacute;n de (14) equivale a minimizar el error cuadr&aacute;tico  medio, que es el procedimiento com&uacute;n en la literatura de redes neuronales.    <br>    <br> Se  propone la utilizaci&oacute;n de funciones tipo sigmoidea ya que algunos autores han  sugerido por su experiencia pr&aacute;ctica, que este tipo de funciones que son  sim&eacute;tricas alrededor del origen convergen m&aacute;s r&aacute;pidamente que la funci&oacute;n  sigmoidea tradicional; adicionalmente, la adici&oacute;n de un t&eacute;rmino lineal puede  ayudar a la convergencia, ya que se evita la saturaci&oacute;n de la neurona o unidad  de procesamiento en la capa oculta, y garantiza un gradiente m&iacute;nimo cuando la  salida neta de la funci&oacute;n sigmoidea es cercana a sus valores extremos.  Consecuentemente con las razones expuestas, <i>G</i>() es especificada como:    <br>      ]]></body>
<body><![CDATA[<p> <img src="/img/revistas/rfiua/n60/n60a18e15.gif"></p> Donde <i>k</i> es una constante peque&ntilde;a. Adem&aacute;s de  lo anterior, se sabe que para un conjunto cualquiera de par&aacute;metros &Omega;, los  par&aacute;metros <em>&beta;<sub>h</sub></em> pueden restringirse a ser positivos, ya que la contribuci&oacute;n neta de cada unidad  oculta,<em> &beta;<sub>h</sub> G</em>(), no cambia de signo si los  par&aacute;metros <em>&beta;<sub>h</sub>,&alpha;<sub>*,h</sub>,&alpha;<sub>i,h</sub></em> cambian de signo puesto que <em>&beta;<sub>h</sub></em> G(u) = -<em>&beta;<sub>h</sub> </em>G(-u).  Igualmente, para evitar la multiplicidad de configuraciones en la capa oculta  se puede obligar a que los par&aacute;metros <em>&beta;<sub>h</sub></em> est&eacute;n siempre ordenados de forma  creciente: 0&lt;<em> &beta;<sub>1</sub>&lt; &beta;<sub>2</sub>&lt;...&lt; &beta;<sub>h</sub>. </em>    <br>    <br> Al  imponer que los par&aacute;metros <em>&phi;<sub>i</sub></em> sean igual cero, el modelo ARNN se  reduce a un perceptron multicapa (MLP). Si <i>H</i> se hace igual a cero, (13) se  reduce a un modelo autorregresivo lineal con entradas ex&oacute;genas (ARX).</font></p>        <p> <font face="Verdana" size="2"><b><i>Estimaci&oacute;n de las funciones de dependencia</i></b></font></p>         <p><font face="Verdana" size="2">En  la propuesta de aproximaci&oacute;n metodol&oacute;gica presentada, se definen las funciones  de dependencia descritas a continuaci&oacute;n a partir de las definiciones dadas en  (6) y (9):    <br>    <br>    Funci&oacute;n  de autocorrelaci&oacute;n no lineal entre <i>y<sub>t</sub></i> y <em>y<sub>t-k</sub></em>:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e16.gif"></p>    Funci&oacute;n  de autocorrelaci&oacute;n parcial no lineal entre<i> y<sub>t</sub></i> y <em>y<sub>t-k</sub></em>:     <br>        ]]></body>
<body><![CDATA[<p> <img src="/img/revistas/rfiua/n60/n60a18e17.gif"></p>    Funci&oacute;n  de correlaci&oacute;n cruzada simple no lineal entre <i>y<sub>t</sub></i> y <em>x<sub>t-k</sub></em>:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e18.gif"></p>    Funci&oacute;n  de correlaci&oacute;n cruzada parcial no lineal entre <i>y<sub>t</sub></i> y <em>x<sub>t-k</sub></em>:    <br>        <p> <img src="/img/revistas/rfiua/n60/n60a18e19.gif"></p>    Los  valores num&eacute;ricos de las funciones propuestas se calculan en forma similar a  las definiciones dadas en (7) y (10). As&iacute; por ejemplo, en 16 <i>V</i> &#91;<i>Y<sub>t</sub></i>&#93; es la varianza de la variable  dependiente;  <i>V</i> &#91;<em>Y<sub>t</sub> </em>|<em>Y<sub>t-k</sub></em>&#93; es la varianza de los residuales <i>e<sub>t</sub></i>de un modelo ARNN  que sigue la definici&oacute;n dada en (13), y para el cual <i>x<sub>t</sub></i> = <i>y<sub>t-k</sub></i></font></p>              <p><font face="Verdana" size="2"><b><i>Estimaci&oacute;n de los intervalos de confianza</i></b></font></p>       <p><font face="Verdana" size="2">Para obtener los intervalos de  confianza se aplic&oacute; un contraste de permutaci&oacute;n, el cual consiste en calcular  el estad&iacute;stico de inter&eacute;s (en este caso la funci&oacute;n de correlaci&oacute;n) sobre una  muestra de datos en la cual la variable de salida es permutada. Al realizar  este proceso  N veces, se obtiene  una muestra de tama&ntilde;o  N del estad&iacute;stico  en cuesti&oacute;n, la cual representa su distribuci&oacute;n emp&iacute;rica de probabilidades. A  partir de dicha muestra se pueden estimar los intervalos de confianza del  estad&iacute;stico estudiado. En todos los casos analizados <em>N=</em>10000. El proceso de c&aacute;lculo es  descrito en (6), entre muchos otros. Para agilizar el proceso de c&aacute;lculo del  intervalo de confianza, se puede asumir que el modelo ARNN no tiene neuronas en  la capa oculta, por lo que se reduce a un modelo autorregresivo cuyos  par&aacute;metros pueden ser calculados usando m&iacute;nimos cuadrados.</font></p>       <p><font face="Verdana" size="2"><i>Casos  de aplicaci&oacute;n</i></font></p>          <p><font face="Verdana" size="2">En  esta secci&oacute;n se presentan los resultados obtenidos al aplicar las medidas de relaci&oacute;n  basadas en modelos de redes neuronales artificiales. En el primer caso se  investigan las propiedades de la t&eacute;cnica propuesta, mientras que en los  restantes se presentan casos reales de aplicaci&oacute;n. </font></p>     <p><font face="Verdana" size="2"><em>Caso  1. Investigaci&oacute;n de las propiedades</em></font></p>          ]]></body>
<body><![CDATA[<p>      <font face="Verdana" size="2">En  este primer caso, se desea investigar las propiedades num&eacute;ricas de las medidas  de autocorrelaci&oacute;n no lineal propuestas sobre una muestra de datos cuyo proceso  generador es conocido. Los procesos generadores considerados que se presentan  a continuaci&oacute;n fueron usados por Granger y Lin &#91;5&#93; en su estudio sobre la  Informaci&oacute;n Mutua. Los modelos son los siguientes:    <br>       <p> <img src="/img/revistas/rfiua/n60/n60a18e0a.gif"></p>      Para cada uno de los modelos  considerados se estimaron 200 muestras, cada una con un tama&ntilde;o de 300 datos.  Para cada una de las series obtenidas se estimaron las funciones ya indicadas.  En la <a href="#Tabla1">tabla 1</a> se presentan los valores promedios de las funciones de  autocorrelaci&oacute;n simple lineal (ACSL) y no-lineal (ACSNL) estimados sobre las  200 muestras respectivamente. <em>e<sub>t</sub></em> es un variable aleatoria normal  est&aacute;ndar. Tal como se puede observar en la <a href="#Tabla1">tabla 1</a>, las funciones propuestas  permiten detectar las dependencias no lineales existentes en los datos; esto es  especialmente importante para el modelo M3, en que la ACSL no indica la  presencia de ninguna relaci&oacute;n de dependencia, mientras que la ACSNL indica que  hay una dependencia muy importante para el rezago 1. Para el proceso de paseo  aleatorio (M6) las funciones de ACSL y ACSNL presentan un comportamiento  decreciente muy similar, tal como se espera para este tipo de procesos.</font></p>       <p align="center"><img src="/img/revistas/rfiua/n60/n60a18t01.gif" ><a name="Tabla1"></a></p>        <p><font face="Verdana" size="2"><i>Caso  2. Procesos lineales y no lineales</i></font></p>          <p><font face="Verdana" size="2">En este segundo caso de aplicaci&oacute;n  se estiman los autocorrelogramas lineales y no-lineales para las funciones  analizadas en &#91;7&#93; para una muestra de 100 datos. Los procesos considerados en  &#91;7&#93; son los siguientes:     <br>           <p> <img src="/img/revistas/rfiua/n60/n60a18e0b.gif"></p>      En la <a href="#Figura2">figura 2</a>, se presenta la  realizaci&oacute;n de cada proceso que fue considerada. Los autocorrelogramas  calculados para cada uno de los procesos son presentados en la <a href="#Figura3">figura 3</a>. Para  el proceso M7, los autocorrelogramas simples muestran claramente la influencia  de los dos primeros rezagos de <i>y<sub>t</sub></i>; mientras que los  autocorrelogramas parciales difieren principalmente en el signo de la relaci&oacute;n  (rezago 2).</font></p>     <p align="center"><img src="/img/revistas/rfiua/n60/n60a18i02.gif" ><a name="Figura2"></a></p>     <p align="center"><img src="/img/revistas/rfiua/n60/n60a18i03.gif" ><a name="Figura3"></a></p>       ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2"><i>Caso  3. The canadian lynx data</i></font></p>        <p><font face="Verdana" size="2">La serie corresponde al n&uacute;mero de  Lynx atrapados por a&ntilde;o en el distrito del rio Mackenzie en Canad&aacute;. La serie  comprende 114 observaciones correspondientes al periodo comprendido entre 1821  y 1934, y ha sido com&uacute;nmente utilizada para realizar comparaciones entre  modelos de predicci&oacute;n no lineales &#91;12-15&#93;. Los datos usados com&uacute;nmente para el  modelado corresponde a la serie original transformada; su gr&aacute;fica aparece en la  <a href="#Figura4">figura 4</a>. La serie exhibe una componente c&iacute;clica de periodo igual a 10 a&ntilde;os, la  cual es irregular en amplitud. En la <a href="#Figura5">figura 5</a> se presentan los  autocorrelogramas simples y parciales, lineales y no lineales, calculados para  la serie transformada; en este caso se us&oacute; un modelo ARNN con 2 neuronas en la  capa oculta para todos los casos considerados. Las autocorrelaciones simples  presentan un comportamiento notoriamente similar, y muestran claramente la  componente c&iacute;clica de periodo 10. La funci&oacute;n de autocorrelaci&oacute;n no lineal  muestra valores m&aacute;s bajos sobre la parte inferior del autocorrelograma en  relaci&oacute;n al autocorrelograma lineal. Esto puede ser causado en parte, a que el  n&uacute;mero de neuronas utilizado en la construcci&oacute;n de la medida no lineal puede  ser insuficiente para capturar el comportamiento de la serie; Zhang &#91;14&#93; ha  reportado resultados para un perceptr&oacute;n multicapa con una estructura de 7  entradas, 5 neuronas en la capa oculta y una salida. La funci&oacute;n de  autocorrelaci&oacute;n parcial lineal indica que los rezagos 1, 2, y 11 son  relevantes, mientras que podr&iacute;a existir una influencia no tan importante por  parte de los rezagos 3, 4 y 7. En contraste, la funci&oacute;n de autocorrelaci&oacute;n  parcial no lineal indica que existe una clara influencia de los rezagos 1, 2,  3, 4, 7, 8, 12, 13. </font></p>     <p align="center"><img src="/img/revistas/rfiua/n60/n60a18i04.gif" ><a name="Figura4"></a></p>     <p align="center"><img src="/img/revistas/rfiua/n60/n60a18i05.gif" ><a name="Figura5"></a></p>       <p><font face="Verdana" size="2"><i>Caso  4. N&uacute;mero de manchas solares de Wolfer </i></font></p>        <p><font face="Verdana" size="2">Esta serie corresponde al n&uacute;mero de  grupos de manchas solares visibles sobre la superficie del sol por a&ntilde;o,  registradas entre 1700 y 1987; v&eacute;ase la <a href="#Figura6">figura 6</a>. Los estudios realizados por  diferentes autores indican que la serie es no lineal y que la distribuci&oacute;n de  probabilidades de sus datos no es gaussiana, por lo que ha sido utilizada para  la comparaci&oacute;n entre modelos no lineales &#91;14, 16, 17&#93;. Las configuraciones  t&iacute;picas presentadas en la literatura usan los siguientes grupos de rezagos de  la variable dependiente como entradas al modelo:    <br>    <br>   &bull; 1-4    <br>    <br>   &bull; 1, 2, 9, 11    ]]></body>
<body><![CDATA[<br>    <br>   &bull; 1-11     <br>    <br>   &bull; 1-3,9-11    <br>    <br>     <p align="center"><img src="/img/revistas/rfiua/n60/n60a18i06.gif" ><a name="Figura6"></a></p>    En la <a href="#Figura7">figura 7</a> se presentan los  autocorrelogramas estimados para la serie. Los autocorrelogramas simples  muestran un comportamiento bastante similar; igualmente, los autocorrelogramas  parciales muestran un comportamiento similar, excepto por la diferencia en el  signo para las medidas en algunos rezagos. </font></p>     <p align="center"><img src="/img/revistas/rfiua/n60/n60a18i07.gif" ><a name="Figura7"></a></p>          <p><font face="Verdana" size="3"><b>Conclusiones</b> </font></p>      <p><font face="Verdana" size="2">En este art&iacute;culo, se desarrolla una  metodolog&iacute;a para la detecci&oacute;n de relaciones lineales y no lineales en series  temporales, a partir de la definici&oacute;n del concepto de coeficiente de  correlaci&oacute;n, y el uso de una red neuronal autorregresiva. El modelo propuesto  permite superar las falencias encontradas en las medidas basadas en correlaci&oacute;n  lineal, y puede ser usado para la determinar que variables deber&iacute;an ser  incorporadas formalmente dentro del proceso de especificaci&oacute;n de un modelo  no-lineal. Su uso no est&aacute; limitado a los ejemplos ilustrados en este trabajo, y  la t&eacute;cnica propuesta podr&iacute;a ser utilizada para determinar otro tipo de  relaciones no lineales tales como la heterocedasticidad en los residuales. Las  medidas definidas son dependientes de la capacidad que tengan los modelos de  redes neuronales para aproximar la relaci&oacute;n existente, de tal forma, que la  calidad de los resultados es dependiente de la calidad del algoritmo utilizado  para la estimaci&oacute;n de los par&aacute;metros del modelo ARNN; consecuentemente, se  hace necesario investigar cuales algoritmos podr&iacute;an ser los m&aacute;s adecuados para  entrenar la red neuronal artificial tanto en t&eacute;rminos de tiempo como de  calidad del punto de m&iacute;nima encontrado a partir de la funci&oacute;n de error  definida. </font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="3"><b>Referencias</b> </font></p>      <!-- ref --><p><font face="Verdana" size="2">1.  N. Kasabov.  <i>Foundations of Neural Networks, Fuzzy Systems, and Knowledge Engineering.</i> 2<sup>nd</sup> ed. Ed.  Massachusetts Institute of Technology. 1998. pp. 43-47.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000134&pid=S0120-6230201100040001800001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 2. A. Weigend, N. Gershfeld. <i>Time-Series Prediction:  Forecasting the future and understanding the past. Reading, Mass.</i>  Ed.Addison-Wesley. 1993. pp. 5-35.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000136&pid=S0120-6230201100040001800002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 3. G. E. P. Box, G. M.  Jenkins.  <i>Time Series Analysis: Forecasting and Control.</i> Ed. Holden-Day Inc. 1970. pp.1-17.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000138&pid=S0120-6230201100040001800003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 4.  C. Granger, T. Ter&auml;svirta. <i>Modeling Nonlinear Economic Relationships.</i> Ed. Oxford University Press.  1993. pp.25-35.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000140&pid=S0120-6230201100040001800004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 5.  C. Granger, J. Lin. "Using the mutual information coefficient to identify  lags in nonlinear models". <i>Time Ser. Anal.</i> Vol. 15. 1994. pp. 371-384.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000142&pid=S0120-6230201100040001800005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 6.  C. A. Cardona, J. D. Vel&aacute;squez. "Selecci&oacute;n de caracter&iacute;sticas relevantes  usando informaci&oacute;n mutua." <i>Revista Dyna</i>. Vol.73. 2006. pp. 149-163.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000144&pid=S0120-6230201100040001800006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 7.  H. A. Nielsen, H. Madsen. "A generalization of some classical time series  tools".  <i>Computational Statistics &amp; Data Analysis.</i> Vol. 37. 2000. pp.13-31.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000146&pid=S0120-6230201100040001800007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>     <!-- ref --><br> 8.  H. White.  <i>An additional hidden unit test for neglected nonlinearity in multilayer  feedforward networks.</i> In Proceedings of the International Joint Conference on  Neural Networks. Washington, DC, IEEE Press, NY. 1989. Vol. 2. pp. 451-455.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000148&pid=S0120-6230201100040001800008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 9. T. H. Lee, H. White, C. W.  J. Granger. "Testing for neglected nonlinearity in time series  models."  <i>Journal of Econometrics.</i> Vol. 56. 1993. pp. 269-290.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000150&pid=S0120-6230201100040001800009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 10.  T. Ter&auml;svirta, C. F. Lin, C. W. J. Granger. "Power of the neural network  linearity test." <i>Journal of Time Series Analysis.</i> Vol. 14. 1993. pp. 209-220.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000152&pid=S0120-6230201100040001800010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 11. H. Tong. <i>Non-linear Time Series, a dynamical system approach, Oxford  Statistical Science Series.</i> Ed. Claredon  Press Oxford. 1990. pp. 215-238.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000154&pid=S0120-6230201100040001800011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 12.  M. J. Campbell, A. M. Walker. "A survey of statistical work on the  mackezie river series of annual Canadian lynx trappings for the years 1821-1934  and a new analysis." <i>Journal of the Royal Statistical Society: Series A.  Statistics in Society.</i> Vol. 140. 1977. pp. 411-431.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000156&pid=S0120-6230201100040001800012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 13.  T. S. Rao, M. M. Gabr. "An introduction to bispectral analysis and  bilinear time series models." <i>Lecture Notes in  Statistics. </i> Vol. 24. 1984. pp. 528-535.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000158&pid=S0120-6230201100040001800013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 14.  G. Zhang. "Time series forecasting using a hybrid ARIMA and neural network  model."  <i>Neurocomputing.</i> Vol.  50. 2003. pp. 159-175.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000160&pid=S0120-6230201100040001800014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 15.  M. Ghiassi, H. Saidane. "A dynamic architecture for artificial neural  network". <i>Neurocomputing.</i> Vol. 63. 2005. pp. 397-413.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000162&pid=S0120-6230201100040001800015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 16.  M. Cottrell, M. Girard, Y. Girard, M. Mangeas, C. Muller. "Neural modeling  for time series: a statistical stepwise method for weight elimination." <i>IEEE Transactions  on Neural Networks</i>.  Vol. 6. 1995. pp. 1355-1364.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000164&pid=S0120-6230201100040001800016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <!-- ref --><br> 17 C. de Groot, D. Wurtz. "Analysis  of univariate time series with connectionists nets: a case study of two  classical examples." <i>Neurocomputing.</i> Vol. 3. 1991. pp. 177-192.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000166&pid=S0120-6230201100040001800017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>    <br>    <br>    <br>       <p><font face="Verdana" size="2">(Recibido el 22 de  septiembre de 2009. Aceptado el 01 de diciembre de 2010)</font></p>     <p><font face="Verdana" size="2"><sup>*</sup>Autor de correspondencia: tel&eacute;fono: + 57 + 4 + 425 53 71, fax: + 57  + 4 + 425 53 65, correo electr&oacute;nico: <a href="mailto:jdvelasq@unal.edu.co">jdvelasq@unal.edu.co</a> (J. D. Vel&aacute;squez)</font></p>     ]]></body>
<body><![CDATA[ ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kasabov]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<source><![CDATA[Foundations of Neural Networks, Fuzzy Systems, and Knowledge Engineering]]></source>
<year>1998</year>
<edition>2</edition>
<page-range>43-47</page-range><publisher-name><![CDATA[Massachusetts Institute of Technology]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Weigend]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Gershfeld]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<source><![CDATA[Time-Series Prediction: Forecasting the future and understanding the past]]></source>
<year>1993</year>
<page-range>5-35</page-range><publisher-name><![CDATA[Ed.Addison-Wesley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Box]]></surname>
<given-names><![CDATA[G. E. P]]></given-names>
</name>
<name>
<surname><![CDATA[Jenkins]]></surname>
<given-names><![CDATA[G. M]]></given-names>
</name>
</person-group>
<source><![CDATA[Time Series Analysis: Forecasting and Control]]></source>
<year>1970</year>
<page-range>1-17</page-range><publisher-name><![CDATA[Ed. Holden-Day Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Granger]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Teräsvirta]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Modeling Nonlinear Economic Relationships]]></source>
<year>1993</year>
<page-range>25-35</page-range><publisher-name><![CDATA[Ed. Oxford University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Granger]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using the mutual information coefficient to identify lags in nonlinear models]]></article-title>
<source><![CDATA[Time Ser. Anal]]></source>
<year>1994</year>
<volume>15</volume>
<page-range>371-384</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cardona]]></surname>
<given-names><![CDATA[C. A]]></given-names>
</name>
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J. D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Selección de características relevantes usando información mutua]]></article-title>
<source><![CDATA[Revista Dyna]]></source>
<year>2006</year>
<volume>73</volume>
<page-range>149-163</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nielsen]]></surname>
<given-names><![CDATA[H. A]]></given-names>
</name>
<name>
<surname><![CDATA[Madsen]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A generalization of some classical time series tools]]></article-title>
<source><![CDATA[Computational Statistics & Data Analysis]]></source>
<year>2000</year>
<volume>37</volume>
<page-range>13-31</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[White]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[An additional hidden unit test for neglected nonlinearity in multilayer feedforward networks]]></source>
<year>1989</year>
<volume>2</volume>
<page-range>451-455</page-range><publisher-loc><![CDATA[Washington ]]></publisher-loc>
<publisher-name><![CDATA[IEEE Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[T. H]]></given-names>
</name>
<name>
<surname><![CDATA[White]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Granger]]></surname>
<given-names><![CDATA[C. W. J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Testing for neglected nonlinearity in time series models]]></article-title>
<source><![CDATA[Journal of Econometrics]]></source>
<year>1993</year>
<volume>56</volume>
<page-range>269-290</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Teräsvirta]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[C. F]]></given-names>
</name>
<name>
<surname><![CDATA[Granger]]></surname>
<given-names><![CDATA[C. W. J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Power of the neural network linearity test]]></article-title>
<source><![CDATA[Journal of Time Series Analysis]]></source>
<year>1993</year>
<volume>14</volume>
<page-range>209-220</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tong]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Non-linear Time Series, a dynamical system approach, Oxford Statistical Science Series]]></source>
<year>1990</year>
<page-range>215-238</page-range><publisher-name><![CDATA[Ed. Claredon Press Oxford]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[M. J]]></given-names>
</name>
<name>
<surname><![CDATA[Walker]]></surname>
<given-names><![CDATA[A. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey of statistical work on the mackezie river series of annual Canadian lynx trappings for the years 1821-1934 and a new analysis]]></article-title>
<source><![CDATA[Journal of the Royal Statistical Society: Series A. Statistics in Society]]></source>
<year>1977</year>
<volume>140</volume>
<page-range>411-431</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rao]]></surname>
<given-names><![CDATA[T. S]]></given-names>
</name>
<name>
<surname><![CDATA[Gabr]]></surname>
<given-names><![CDATA[M. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An introduction to bispectral analysis and bilinear time series models]]></article-title>
<source><![CDATA[Lecture Notes in Statistics]]></source>
<year>1984</year>
<volume>24</volume>
<page-range>528-535</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Time series forecasting using a hybrid ARIMA and neural network model]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>2003</year>
<volume>50</volume>
<page-range>159-175</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ghiassi]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Saidane]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A dynamic architecture for artificial neural network]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>2005</year>
<volume>63</volume>
<page-range>397-413</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cottrell]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Girard]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Girard]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Mangeas]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Muller]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural modeling for time series: a statistical stepwise method for weight elimination]]></article-title>
<source><![CDATA[IEEE Transactions on Neural Networks]]></source>
<year>1995</year>
<volume>6</volume>
<page-range>1355-1364</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[de Groot]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Wurtz]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Analysis of univariate time series with connectionists nets: a case study of two classical examples]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>1991</year>
<volume>3</volume>
<page-range>177-192</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
