<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0120-5609</journal-id>
<journal-title><![CDATA[Ingeniería e Investigación]]></journal-title>
<abbrev-journal-title><![CDATA[Ing. Investig.]]></abbrev-journal-title>
<issn>0120-5609</issn>
<publisher>
<publisher-name><![CDATA[Facultad de Ingeniería, Universidad Nacional de Colombia.]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0120-56092010000100027</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Predicción de series de tiempo con redes cascada-correlación]]></article-title>
<article-title xml:lang="en"><![CDATA[Time series forecasting using cascade correlation networks]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[Juan David]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Villa]]></surname>
<given-names><![CDATA[Fernán Alonso]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Souza]]></surname>
<given-names><![CDATA[Reinaldo C]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia Facultad de Minas Grupo de Computación Aplicada]]></institution>
<addr-line><![CDATA[Medellín ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Pontificia Universidade Catolica Facultade de Engenheria Eletrica ]]></institution>
<addr-line><![CDATA[Rio de Janeiro ]]></addr-line>
<country>Brasil</country>
</aff>
<pub-date pub-type="pub">
<day>01</day>
<month>04</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>01</day>
<month>04</month>
<year>2010</year>
</pub-date>
<volume>30</volume>
<numero>1</numero>
<fpage>157</fpage>
<lpage>162</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0120-56092010000100027&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0120-56092010000100027&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0120-56092010000100027&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Las redes neuronales, y en particular los perceptrones multicapa (MLP), han sido reconocidos como una de las más poderosas técnicas para estimar series de tiempo; sin embargo, la técnica de redes cascada-correlación (CC) es un fuerte competidor para pronosticar series temporales pues incorpora mejoras a los problemas de identificabilidad estadística del modelo del MLP. En éste artículo se compara el rendimiento de las redes CC respecto de otras técnicas, entre ellas el MLP, ANN y Arima, usando vrias series de tiempo no lineales del mundo real, con el fin de determinar si las CC ofrecen buenos resultados en la práctica. Los resultados indican que las redes CC, en la mayoría de los casos, son superiores a los MLP, ANN y Arima, logrando errores menores en magnitud que los reportados en la literatura usando dichas técnicas, mientras que en relación a DAN2 se lograron errores cercanos e incluso mejores]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Artificial neural networks, especially multilayer perceptrons, have been recognised as being a powerful technique for forecasting nonlinear time series; however, cascade-correlation architecture is a strong competitor in this task due to it incorporating several advantages related to the statistical identification of multilayer perceptrons. This paper compares the accuracy of a cascadecorrelation neural network to the linear approach, multilayer perceptrons and dynamic architecture for artificial neural networks (DAN2) to determine whether the cascade-correlation network was able to forecast the time series being studied with more accuracy. It was concluded that cascade-correlation was able to forecast time series with more accuracy than other approaches.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[cascada-correlación]]></kwd>
<kwd lng="es"><![CDATA[redes neuronales]]></kwd>
<kwd lng="es"><![CDATA[series de tiempo]]></kwd>
<kwd lng="es"><![CDATA[predicción]]></kwd>
<kwd lng="es"><![CDATA[entrenamiento]]></kwd>
<kwd lng="es"><![CDATA[validación]]></kwd>
<kwd lng="es"><![CDATA[perceptrón multicapa]]></kwd>
<kwd lng="es"><![CDATA[DANN2]]></kwd>
<kwd lng="es"><![CDATA[Arima]]></kwd>
<kwd lng="en"><![CDATA[cascade correlation]]></kwd>
<kwd lng="en"><![CDATA[neural network]]></kwd>
<kwd lng="en"><![CDATA[time series]]></kwd>
<kwd lng="en"><![CDATA[forecasting]]></kwd>
<kwd lng="en"><![CDATA[fit]]></kwd>
<kwd lng="en"><![CDATA[validation]]></kwd>
<kwd lng="en"><![CDATA[multilayer perceptron]]></kwd>
<kwd lng="en"><![CDATA[DAN2]]></kwd>
<kwd lng="en"><![CDATA[Arima]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font size = "2" face = "verdana">     <p>    <center><font size = "4"><b>Predicci&oacute;n de series de tiempo con redes cascada-correlaci&oacute;n</b></font></center></b> </p>       <p>    <center><font size = "3"><b>Time series forecasting using  cascade correlation networks</b></font></center></p>     <p><b> Juan David Vel&aacute;squez<sup>1</sup> ,  Fern&aacute;n Alonso Villa<sup>2</sup> y  Reinaldo C. Souza<sup>3</sup>  </b></p>     <p> <sup>1</sup> Ingeniero  civil. M.Sc., en Ingenier&iacute;a de Sistemas y Ph.D., en Ingenier&iacute;a-&Aacute;rea Sistemas  Energ&eacute;ticos, Universidad Nacional de Colombia, Medell&iacute;n. Profesor asociado, Escuela  de Sistemas, Facultad de Minas, Universidad Nacional de Colombia, Medell&iacute;n.  Director, Grupo de Computaci&oacute;n Aplicada, Facultad de Minas, Universidad  Nacional de Colombia. <a href = "mailto: jdvelasq@unal.edu.co"> jdvelasq@unal.edu.co</a> <sup>2</sup> Ingeniero de Sistemas en Inform&aacute;tica. Estudiante de M.Sc., en Sistemas,  Universidad Nacional de Colombia, Medell&iacute;n.  <a href = "mailto:fernanvilla@gmail.com ">fernanvilla@gmail.com </a> <sup>3</sup> Mestre em  Sistemas de Engenharia El&eacute;trica, Pontificia Universidade Cat&oacute;lica do Rio de  Janeiro, Brasil. Ph.D. in Statistics, University of Warwick, Reino Unido.  Profesor titular de la   Facultade de Engenheria Eletrica, Pontificia Universidade  Catolica, Rio de Janeiro, Brasil.<a href = "mailto:reinaldo@ele.puc-rio.br">reinaldo@ele.puc-rio.br</a> </p> <hr size = "1">     <p><b>RESUMEN </b></p>    <p>   Las redes neuronales, y en particular los perceptrones multicapa  (MLP), han sido reconocidos como una de las m&aacute;s poderosas t&eacute;cnicas para estimar  series de tiempo; sin embargo, la t&eacute;cnica de redes cascada-correlaci&oacute;n (CC) es  un fuerte competidor para pronosticar series temporales pues incorpora mejoras  a los problemas de identificabilidad estad&iacute;stica del modelo del MLP. En &eacute;ste  art&iacute;culo se compara el rendimiento de las redes CC respecto de otras t&eacute;cnicas,  entre ellas el MLP, ANN y Arima, usando vrias series de tiempo no lineales del  mundo real, con el fin de determinar si las CC ofrecen buenos resultados en la  pr&aacute;ctica. Los resultados indican que las redes CC, en la mayor&iacute;a de los casos,  son superiores a los MLP, ANN y Arima, logrando errores menores en magnitud que  los reportados en la literatura usando dichas t&eacute;cnicas, mientras que en  relaci&oacute;n a DAN2 se lograron errores cercanos e incluso mejores.</p>    <p>   <b>Palabras clave</b>: cascada-correlaci&oacute;n,  redes neuronales, series de tiempo, predicci&oacute;n, entrenamiento, validaci&oacute;n,  perceptr&oacute;n multicapa, DANN2, Arima. </p>   <hr size = "1">     ]]></body>
<body><![CDATA[<p><b>ABSTRACT </b></p>    <p>   Artificial neural networks, especially  multilayer perceptrons, have been recognised as being a powerful technique for  forecasting nonlinear time series; however, cascade-correlation architecture is  a strong competitor in this task due to it incorporating several advantages  related to the statistical identification of multilayer perceptrons. This paper  compares the accuracy of a cascadecorrelation neural network to the linear  approach, multilayer perceptrons and dynamic architecture for artificial neural  networks (DAN2) to determine whether the cascade-correlation network was able  to forecast the time series being studied with more accuracy. It was concluded  that cascade-correlation was able to forecast time series with more accuracy  than other approaches. </p>    <p>   <b>Keywords:</b> cascade correlation, neural network, time  series, forecasting, fit, validation, multilayer perceptron, DAN2, Arima.</p>   <hr size = "1">     <p>Recibido: febrero  16 de 2009 Aceptado: marzo  15 de 2010</p> <font size = "3"><b>Introducci&oacute;n</b></font></p>    <p> A  trav&eacute;s del tiempo se han desarrollado un gran n&uacute;mero de t&eacute;ccas para la  predicci&oacute;n y el modelado de series temporales, debido principalmente a la  importancia de este problema en muchas &aacute;reas del conocimiento. Por ejemplo,  dichos modelos son usados en el&nbsp; campo  empresarial para pronosticar&nbsp; los cambios  en la demanda de determinado producto, tomar decisiones sobre niveles de  inventario, insumos, etc&eacute;tera.&nbsp; </p>    <p>     Ha  sido com&uacute;nmente aceptado que muchas series temporales poseen comportamientos  que no pueden ser modelados de la mejor forma usando un modelo lineal. Es as&iacute;  entonces como se han venido aplicando t&eacute;cnicas no lineales al modelado y la  predicci&oacute;n de series de tiempo, entre ellas: Arima (<i>autoregressive integrates moving average</i>) (Box y Jenkins,&nbsp; 1976); ARCH (<i>autoregressive heteroscedastic model</i>) de Engle (1982); ANN (<i>artificial neural networks</i>), ampliamente  discutidas por Hornik y Stinchcombe (1989) y DAN2, descrito por Ghiassi <i><i>et al</i>.</i> (2005) y Saidane y Ghiassi  (2005). De dichas t&eacute;cnicas, los modelos de redes neuronales, y en particular  los perceptrones multicapa (MLP, por sus siglas en in-gl&eacute;s), han sido  ampliamente usados en muchos casos pr&aacute;cticos, y se ha demostrado su utilidad y  valor en la soluci&oacute;n de este proble-ma. Vel&aacute;squez y Montoya (2005)  desarrollaron un modelo h&iacute;brido para la predicci&oacute;n del &iacute;ndice de precios al  consumidor en Colom-bia, mientras que Vel&aacute;squez y Gonz&aacute;lez (2005) modelaron la  din&aacute;-mica del &iacute;ndice de tipo de cambio real colombiano. Su &eacute;xito se debe a que  dichos modelos son aproximadores&nbsp;  universales de funciones que est&aacute;n definidas en un dominio compacto (Hornik  y Stinchcombe, 1989; Cybenko, 1989; Funahashi, 1989). No obs-tante, el proceso  de especificaci&oacute;n de un MLP es dif&iacute;cil debido a la gran cantidad de pasos  metodol&oacute;gicos que requiere, a los criterios subjetivos en cuanto a c&oacute;mo abordar  cada paso, y a que los resul-tados obtenidos en cada etapa son cr&iacute;ticos.&nbsp; </p>    <p>     Uno de  los aspectos que dificultan el proceso de especificaci&oacute;n es la falta de  identificabilidad estad&iacute;stica del modelo. Las diversas consideraciones sobre  este tema son el punto inicial para plantear modificaciones sobre la  especificaci&oacute;n del perceptr&oacute;n multicapa, de modo que se obtengan nuevas  configuraciones que puedan modelar y pronosticar series no lineales de una  forma m&aacute;s simple y permitan obtener mejores resultados en comparaci&oacute;n con otros  modelos. </p>    <p>     Desde  este punto de vista, la red neuronal artificial conocida como  cascada-correlaci&oacute;n (CC) propuesta por Fahlman y Lebiere (1990) presenta  ventajas conceptuales muy interesantes con relaci&oacute;n al problema de  identificabilidad de los MLP. Adem&aacute;s, modificando un MLP es posible obtener una  red CC.</p>    <p>     Aunque  una red CC podr&iacute;a realizar la regresi&oacute;n de funciones no lneales con una  precisi&oacute;n superior a un MLP tradicional, en la literatura m&aacute;s relevante no se  han reportado comparaciones entre los MLP y las&nbsp;  redes CC cuando se modelan o pronostican series temporales no lineales,  y consecuentemente, esta hip&oacute;tesis no ha sido demostrada en la pr&aacute;ctica. As&iacute;,  un objetivo de este art&iacute;culo es el de establecer una base para la comparaci&oacute;n  de MLP y redes CC. En este orden de ideas, en la literatura tampoco se ha  comparado el rendimiento de las CC con respecto a t&eacute;cnicas como DAN2 y ANN al  pronosticar series de tiempo. Asimismo, otro objetivo es el de establecer si  las redes CC tienen un rendimiento apropiado para el pron&oacute;stico de series.</p>    <p>     En  este art&iacute;culo se presentan las redes CC como un modelo factible para el  pron&oacute;stico de series temporales y&nbsp;  posiblemente superior a los MLP. Adem&aacute;s, se realiza el an&aacute;lisis de tres  casos reales para determinar si realmente existen ganancias derivadas del uso  de&nbsp; redes CC en comparaci&oacute;n con MLP, y  resultados obtenidos por otros autores al estimar series de tiempo con otros  modelos de redes neuronales, tales como DAN2, dado que en la literatura m&aacute;s relevante  no se encuentra una comparaci&oacute;n emp&iacute;rica de dichas t&eacute;cnicas contra CC que  permita establecer si es beneficioso pronosticar series de tiempo con redes CC.</p>    ]]></body>
<body><![CDATA[<p>     A continuaci&oacute;n se presenta el modelo  del MLP y las dificultades de su proceso de especificaci&oacute;n. Igualmente, las  redes CC y las ventajas conceptuales que posee sobre los MLP. Seguidamente, se  describen los casos de an&aacute;lisis utilizados y se analizan los resultados  obtenidos. Finalmente, se concluye. </p>         <p><font size = "3"><b>El modelo</b></font></p>    <p>     Un perceptr&oacute;n multicapa (MLP, por sus siglas en ingl&eacute;s) es un tipo de  red neuronal que imita la estructura masivamente paralela de las neuronas del  cerebro. Desde un punto de vista matem&aacute;tico, es un modelo que puede aproximar  cualquier funci&oacute;n continua definida en un dominio compacto con una precisi&oacute;n  arbitraria previamente establecida (Hornik y Stinchcombe, 1989; Cybenko, 1989;  Funahashi, 1989). En la pr&aacute;ctica, los MLP se han caracterizado por ser muy  tolerantes a informaci&oacute;n incompleta, inexacta o contaminada con ruido (Masters,  1993), por lo que han sido usados en la modelaci&oacute;n emp&iacute;rica de series  temporales no lineales; Zhang <i>et &aacute;l</i>.  (1998) presentan una revisi&oacute;n general sobre el estado actual, mientras que  aplicaciones espec&iacute;ficas son presentadas por Heravi <i>et &aacute;l</i>. (2004) y Kuan y Liu (2000), entre muchos otros.</p>    <p>     Una serie temporal se define como una secuencia&nbsp; de observaciones en el tiempo <i>y</i>1, <i>y</i>2, &hellip;, <i>yT</i>,  para la cual se pretende construir una funci&oacute;n que permita obtener <i>yt </i>en funci&oacute;n de sus valores  pasados, <i>yt</i>-1, <i>yt</i>-2,&hellip;,<i>yt</i>-<i>p</i>. Dicha&nbsp; funci&oacute;n puede  ser especificada como un MLP que puede ser representado matem&aacute;ticamente como.</p>         <p>    <center><img src="img/revistas/iei/v30n1/1a27e1.jpg"></center></p>     <p>     donde&nbsp; los par&aacute;metros&nbsp; &#937; =&nbsp;  &#91;<i>&#946;</i>*,&nbsp; <i>&#946;h</i>,&nbsp; <i>&#945;</i>*,<i>h</i>, <i>&#945;p</i>,<i>h</i>&#93;,&nbsp;&nbsp; <i>h </i>=  1&hellip;<i>H</i>,&nbsp; <i>p</i> = 1&hellip;<i>P</i> son estimados usando el principio de m&aacute;xima verosimilitud de los  residuales, que equivale a la minimizaci&oacute;n de una funci&oacute;n de costo definida  usualmente como el error cuadr&aacute;tico medio. La ecuaci&oacute;n (1) equivale a un modelo  estad&iacute;stico no param&eacute;trico de regresi&oacute;n no lineal (Sarle, 1994). En (1) se  asume que <i>&#949;t</i> sigue una distribuci&oacute;n normal con media cero y varianza desconocida <i>&#963;</i>2. <i>H</i> representa el n&uacute;mero de neuronas en la capa oculta. <i>P</i> es el n&uacute;mero de rezagos de la variable  dependiente. Y <i>g</i>(&middot;) es la funci&oacute;n de  activaci&oacute;n de las neuronas de la capa oculta. En el contexto de las series  temporales el modelo puede ser entendido como una combinaci&oacute;n lineal ponderada  de la transformaci&oacute;n no lineal de varios modelos autorregresivos. En la <a href="#fig1">Figura 1</a>se exhibe una  representaci&oacute;n pict&oacute;rica del modelo postulado en (1).</p>     <p>    <center>     <a name="fig1"><img src="img/revistas/iei/v30n1/1a27f1.jpg"></a></center></p>     <p><b>La especificaci&oacute;n del MLP </b></p>     ]]></body>
<body><![CDATA[<p>   El  proceso de especificaci&oacute;n de un MLP es dif&iacute;cil debido a la gran cantidad de  pasos metodol&oacute;gicos que requiere ( la selecci&oacute;n de las entradas, la  determinaci&oacute;n de las neuronas de la capa oculta, la estimaci&oacute;n de los  par&aacute;metros (Ortiz <i>et &aacute;l.</i>, 2007),  etc.) ,&nbsp; a los criterios subjetivos en  cuanto a c&oacute;mo abordar cada paso, y a que los resultados obtenidos en cada paso  son cr&iacute;ticos. </p>    <p>     Uno de  los aspectos que dificultan el proceso de especificaci&oacute;n es la falta de  identificabilidad estad&iacute;stica del modelo. Esto se refiere a que los par&aacute;metros  &oacute;ptimos no son &uacute;nicos para una configuraci&oacute;n espec&iacute;fica de un modelo (n&uacute;mero de  entradas, cantidad de neuronas en la capa oculta, funciones de activaci&oacute;n,  etc.), y un conjunto de datos dado, debi&eacute;ndose a que:</p>    <p>     -Se  pueden obtener m&uacute;ltiples configuraciones id&eacute;nticas en comportamiento cuando se  permutan las neuronas de la capa oculta, manteniendo vinculadas las conexiones  que llegan a dichas neuronas.</p>    <p>     -Cuando  las neuronas de la capa oculta tienen funciones de activaci&oacute;n sim&eacute;tricas  alrededor del origen, la contribuci&oacute;n neta de la neurona a la salida de la red  neuronal se mantiene igual si se cambian los signos de los pesos que entran y  salen ella. </p>    <p>     -Si  los pesos de las conexiones entrantes a una neurona oculta equivalen a cero, es  imposible determinar el valor del peso de la conexi&oacute;n de esa neurona oculta a  la neurona de salida.</p>    <p>     -Si el  peso de la conexi&oacute;n de una neurona oculta hacia la neurona de salida es cero,  es imposible identificar los valores de los pesos de las conexiones entrantes a  la neurona oculta.</p>    <p>     Las consideraciones anteriores sobre  la identificabilidad del modelo son el punto inicial para plantear  modificaciones sobre la especificaci&oacute;n del MLP de manera tal que se obtengan  nuevas configuraciones que puedan modelar y pronosticar series no lineales de  una forma m&aacute;s simple y permitan obtener mejores resultados en comparaci&oacute;n con  otros modelos.&nbsp;&nbsp; </p>     <p><font size = "3"><b> Las redes cascada correlaci&oacute;n</b></font></p>    <p>     La red  neuronal artificial conocida como cascada-correlaci&oacute;n (CC) propuesta por  Fahlman y Lebiere (1990) est&aacute; dise&ntilde;ada siguiendo el esquema de crecimiento de  red;se comienza con una red m&iacute;nima  sin capas ocultas, es decir, con s&oacute;lo algunas entradas y uno o m&aacute;s&nbsp; nodos de salida. Las neuronas ocultas son  agregadas una a una en la red, obteniendo de esta forma una estructura  multicapa. En la <a href="#fig2">Figura 2</a> se presenta el esquema de una red CC.&nbsp; En el proceso de adici&oacute;n de neuronas ocultas  a la red, cada nueva neurona recibe una conexi&oacute;n sin&aacute;ptica de cada una de las  neuronas de entrada y tambi&eacute;n de las neuronas ocultas que la preceden. Luego de  agregar la nueva neurona oculta, los pesos sin&aacute;pticos de su entrada son  congelados, mientras que los pesos de su salida son entrenados repetidamente.  Este proceso es continuo hasta que se alcanza un rendimiento satisfactorio. </p>     <p>    ]]></body>
<body><![CDATA[<center>     <a name="fig2"><img src="img/revistas/iei/v30n1/1a27f2.jpg"></a></center></p>     <p>   Las  redes CC presentan ventajas conceptuales muy interesantes con relaci&oacute;n al  problema de identificabilidad de la especificaci&oacute;n del MLP. A partir de un MLP  puede obtenerse una red CC realizando las siguientes modificaciones:</p>    <p>     -Se  restringe a que la funci&oacute;n de activaci&oacute;n de las neuronas de la capa de salida  sea lineal.</p>    <p>     -Se  agregan conexiones desde las neuronas de entrada hasta la neurona de salida.  Esto equivale a introducir dentro del modelo una componente que es la  combinaci&oacute;n lineal de las entradas. Tal modificaci&oacute;n facilita que el modelo  pueda capturar la componente lineal del conjunto de datos estudiado.</p>    <p>     -Desde  la <i>j</i>-&eacute;sima neurona de la capa oculta  se agregan conexiones de salida que entran a las neuronas <i>j</i>+1, <i>j</i>+2, &hellip; Esto tiene el  efecto de&nbsp; evitar que las neuronas de la  capa oculta puedan permutarse, por lo que se reduce la multiplicidad de modelos  con desempe&ntilde;o similar. </p>    <p>     As&iacute;,  de una red CC puede obtenerse un MLP imponiendo algunas restricciones a los  pesos de las conexiones.&nbsp;</p>       <p>Consecuentemente con lo anterior, una  red CC podr&iacute;a realizar la regresi&oacute;n de funciones no lineales con una precisi&oacute;n  superior a un MLP tradicional. Eso (el problema general de regresi&oacute;n) ya ha  sido abordado en la literatura; pero el problema del modelado y la predicci&oacute;n  de series temporales es m&aacute;s complejo que el de regresi&oacute;n, pues se debe tener en  cuenta el orden de los datos as&iacute; como las nuevas propiedades estad&iacute;sticas que  este ordenamiento induce sobre la informaci&oacute;n.</p>     <p><font size = "3"><b>Casos de aplicaci&oacute;n</b></font></p>    <p>     En esta secci&oacute;n se presenta la comparaci&oacute;n entre  las redes CC y los modelos MLP y DAN2 para distintas series de tiempo reales y  para varias configuraciones de los modelos de redes neuronales. Las series  utilizadas son &quot;Pasajeros de una aerol&iacute;nea&quot;, de Box y Jenkins,&nbsp; &quot;Usuarios de un servidor de Internet&quot; y  &quot;Equipos contra la contaminaci&oacute;n&quot;, ampliamente estudiadas en la literatura por  diversos autores. Para la comparaci&oacute;n, seg&uacute;n sea el caso, se toma el MSE o SSE  al pronosticar&nbsp; cada serie con diferentes  modelos de redes CC; los mejores resultados obtenidos por Ortiz <i>et &aacute;l</i>. (2007) al pronosticarlas con MLP;  los registrados por Ghiassi <i>et &aacute;l. </i>(2005)  al pronosticarlas con modelos DAN2; y los reportados por otros autores. As&iacute;, se  compara el desempe&ntilde;o de CC contra el del MLP y DAN2 a trav&eacute;s del SSE o MSE, y  con fines ilustrativos se presentan algunos resultados obtenidos en otras  investigaciones.&nbsp; Las tres series  mencionadas fueron elegidas debido al comportamiento no lineal que poseen, como  se puede apreciar en las figuras 3, 4, 5. </p>    <p>     <b>Primer caso: Pasajeros de una aerol&iacute;nea</b></p>    ]]></body>
<body><![CDATA[<p>     Esta serie de tiempo contiene el registro del n&uacute;mero total de pasajeros  transportados al mes por una aerol&iacute;nea, desde enero de 1949&nbsp; hasta diciembre de 1960. Cada uno de los  trece modelos, contenidos en la   <a href="#tab1">Tabla 1</a>  fue estudiado por Faraway y Chatfield (1998)  utilizando un modelo de redes neuronales (ANN), por Ghiassi <i>et &aacute;l. </i>(2005) mediante DAN2 y por Ortiz <i>et &aacute;l.</i> (2007) con un MLP. Para cada  modelo los datos de la serie se transformaron utilizando la funci&oacute;n logaritmo  natural; se usaron los primeros 120 datos para entrenamiento y los 12 &uacute;ltimos  para validaci&oacute;n, tal como fue realizado por Faraway y Chatfield (1998). En la  <a href="#fig3">Figura 3</a> se muestran los valores reales y los pronosticados empleando el modelo  1 de CC de la <a href="#tab1">Tabla 1</a> .</p>         <p>    <center>     <a name="tab1"><img src="img/revistas/iei/v30n1/1a27t1.jpg"></a></center></p>         <center>     <a name="fig3"><img src="img/revistas/iei/v30n1/1a27f3.jpg"></a></center>         <p>     Faraway y Chatfield (1998),  Ghiassi <i>et &aacute;l</i>. (2005) y Ortiz <i>et &aacute;l</i>. (2007) reportaron de cada uno de los modelos de la <a href="#tab1">Tabla 1</a>   la sumatoria del error medio cuadr&aacute;tico (SSE) para las muestras de  entrenamiento y validaci&oacute;n, al pronosticarlos con DAN2 y MLP, respectivamente.  Se pron&oacute;stico la serie con los modelos respectivos de CC y se estim&oacute; el  estad&iacute;stico de ajuste para las muestras en entrenamiento y de validaci&oacute;n.&nbsp;    </p>         <p>En la <a href="#tab1">Tabla 1</a>  se resumen los resultados obtenidos; n&oacute;tese que los  errores logrados con CC para los modelos 1, 4, 6, 7, 9, 10 y 13, tanto en  entrenamiento como en validaci&oacute;n, son mejores que los reportados con ANN, MLP y  DAN2.</p>         <p>     Para los modelos 2, 11 y 12 (<a href="#tab1">Tabla 1</a> ), en  entrenamiento, los errores obtenidos con CC son 26,98%, 20,32% y 38,99%&nbsp; mayores que los reportados con DAN2,  respectivamente. Sin embargo, estos errores son tolerables dado que est&aacute;n  relativamente cercanos a los reportados con DAN2 y&nbsp; son menores que los proporcionados por ANN y  MLP. Adem&aacute;s, los errores alcanzados en validaci&oacute;n resultan menores que los  reportados con ANN, MLP y DAN2 para los tres modelos en cuesti&oacute;n.</p>    <p>De la   <a href="#tab1">Tabla 1</a> , los errores logrados con CC en entrenamiento para  los modelos 3, 5 y 8 son menores que los reportados con ANN, MLP y DAN2,  mientras que en validaci&oacute;n los errores obtenidos con CC para los modelos 3, 5 y  8 son&nbsp; 51,22%, 56,71%, y 16,67% m&aacute;s altos  que los logrados con MLP, respectivamente. No obstante, se puede considerar que  estos errores de validaci&oacute;n son tolerables, al ser menores que los hallados con  DAN2 y ANN.</p>    <p>     En la <a href="#tab2">Tabla 2</a>  se presentan 4 modelos estudiados  por Ghiassi <i>et &aacute;l</i>., (2005) mediante  DAN2; en los modelos 2 y 3 las redes CC fueron superiores a DAN2, tanto en  entrenamiento como en validaci&oacute;n. Sin embargo, en el modelo 1 y 4 DAN2 fue  superior en entrenamiento y CC en validaci&oacute;n.</p>         <p>    ]]></body>
<body><![CDATA[<center>     <a name="tab2"><img src="img/revistas/iei/v30n1/1a27t2.jpg"></a></center></p>         <p>Claramente, para esta serie en particular, 7 de los 13 modelos de CC de la <a href="#tab1">Tabla 1</a>  fueron superiores  que los modelos de ANN, MLP y DAN2; adem&aacute;s, al pronosticar los 13 modelos todos  los errores fueron cercanos a los reportados en la literatura. Entonces, los  modelos de CC son una opci&oacute;n viable para pronosticar esta serie.</p>    <p>     <b>Segundo caso: Usuarios de un servidor de Internet</b></p>    <p>     Esta serie temporal registra el n&uacute;mero de usuarios  que iniciaron sesi&oacute;n en un servidor de Internet durante 100 minutos, para un  total de 100 observaciones. Fue estudiada por Makridakis <i>et &aacute;l.</i> (1998) mediante modelos Arima,&nbsp; Ghiassi <i>et &aacute;l. </i>(2005)  con DAN2. Adem&aacute;s, en Makridakis <i>et &aacute;l</i>.  (1998) se afirma que esta serie refleja la no estacionalidad del proceso que  representa. En los experimentos, de los 100 datos se tomaron los primeros 80  para entrenamiento, y los restantes para validaci&oacute;n, tal como lo hicieron  Ghiassi <i>et &aacute;l.</i> (2005).&nbsp; En la <a href="#fig4">Figura 4</a> se presentan los valores  reales y los pronosticados de la serie de tiempo con el modelo CC-1 de la <a href="#tab3">Tabla 3</a> .</p>         <p>    <center>     <a name="fig4"><img src="img/revistas/iei/v30n1/1a27f4.jpg"></a></center></p>         <p>    <center>     <a name="tab3"><img src="img/revistas/iei/v30n1/1a27t3.jpg"></a></center></p>         <p>     Se experiment&oacute; con varios modelos pronosticando la  serie de este caso hasta obtener un error menor que el reportado en Ghiassi <i>et &aacute;l</i>. (2005) para ANN y Arima y que  tambi&eacute;n fuera cercano a los obtenidos con DAN2, en la <a href="#tab3">Tabla 3</a>  se resumen los  errores logrados y reportados, tanto en entrenamiento como en validaci&oacute;n. Los rsultados  indican que los errores hallados con los dos modelos de CC (CC-1 y CC-2) son  menores que los reportados con ANN y Arima. Comparando los modelos similares de  CC y DAN2, para el error de entrenamiento del modelo CC-1 es 54,83% m&aacute;s alto  que el reportado para DAN2-1, mientras que para validaci&oacute;n es 22,21% m&aacute;s alto.  Asimismo, el error de entrenamiento del modelo CC-2 es 8,43% m&aacute;s alto, y en  validaci&oacute;n lo es 8,79%; los errores logrados tanto con CC-1 como en CC-2 son  relativamente cercanos a los reportados&nbsp;  con modelos similares de DAN2. Claramente, estos errores son aceptables,  y los modelos mencionados de CC son adecuados para pronosticar en particular la  serie de este caso.</p>         <p><b>Tercer caso: Equipos  contra la contaminaci&oacute;n</b></p>    ]]></body>
<body><![CDATA[<p>     En la  serie de este caso se encuentra almacenado el env&iacute;o mensual de equipos contra  contaminaci&oacute;n desde enero de 1986 hasta otubre de 1996, para un total de 130  datos. La serie fue estudiada por Makridakis <i>et &aacute;l.</i> (1998) mediante modelos Arima, y por Ghiassi <i>et &aacute;l. </i>(2005) a trav&eacute;s  de DAN2. Adem&aacute;s, los  datos muestran una tendencia a&nbsp; fluctuar  con el tiempo en una magnitud variable,&nbsp;demostrando una no estacionalidad en la varianza (Makridakis <i>et &aacute;l</i>., 1998);  esto se puede apreciar en la <a href="#fig5">Figura 5</a>, donde se despliegan los valores reales y  pronosticados usando el modelo CC2 de la <a href="#tab4">Tabla 4</a> . En los experimentos se  transform&oacute; la serie utilizando la funci&oacute;n logaritmo natural (base - e); se  usaron los primeros 106 datos para entrenamiento y los 24 &uacute;ltimos (dos a&ntilde;os)  para validaci&oacute;n, tal como fue realizado por Makridakis <i>et &aacute;l</i>. (1998).</p>         <p>    <center>     <a name="fig5"><img src="img/revistas/iei/v30n1/1a27f5.jpg"></a></center></p>         <p>    <center>     <a name="tab4"><img src="img/revistas/iei/v30n1/1a27t4.jpg"></a></center></p>         <p>     Similar al segundo caso, se experiment&oacute; con varios  modelos pronosticando la serie de este caso hasta obtener un error menor que el  reportado en Ghiassi <i>et &aacute;l</i>. (2005)  para ANN y Arima y que tambi&eacute;n fuera cercano a los reportados con DAN2, en la  <a href="#tab4">Tabla 4</a>  se resumen los errores alcanzados y reportados tanto para entrenamiento  como para la validaci&oacute;n de 12 y 24 meses, es decir, 1 y 2 a&ntilde;os,  respectivamente. Los resultados indican que los errores logrados con los dos  modelos de CC son menores que los reportados con ANN y Arima. Comparando los  modelos similares de CC y DAN2, el error de entrenamiento del modelo CC-1 es  48,19% m&aacute;s alto que el reportado para DAN2-1, mientras que para validaci&oacute;n del  primer a&ntilde;o es 20,97% menor, y para la validaci&oacute;n del segundo a&ntilde;o es 23,78%  mayor. Adem&aacute;s, el error de entrenamiento del modelo CC-2 es 23,78% m&aacute;s alto, en  validaci&oacute;n de un a&ntilde;o lo es 7,22% y de dos a&ntilde;os 75,82%. Finalmente, los errores  con CC-3 en entrenamiento, validaci&oacute;n (1 a&ntilde;o) y validaci&oacute;n (2 a&ntilde;os) son 64,19%,  82,14% y 36,64% mayores, respectivamente. </p>    <p>Los errores con CC-1, CC-2 y CC-3 son menores que  los reportados con ANN y Arima, adem&aacute;s, est&aacute;n relativamente cercanos a los  reportados&nbsp; con modelos similares de  DAN2. Claramente, estos errores son tolerables, y los modelos mencionados de CC  resultan ser una opci&oacute;n razonable para pronosticar en particular la serie de  este caso. </p>    <p><font size = "3"><b>Conclusiones</b></font></p>    <p>     En  este trabajo se muestra que las redes neuronales, y en particular los MLP, han  sido reconocidos como una de las t&eacute;cnicas m&aacute;s adecuadas para modelar y  pronosticar series de tiempo; sin embargo, su proceso de&nbsp; especificaci&oacute;n es dif&iacute;cil debido a la falta  de identificabilidad estad&iacute;stica del modelo. Es as&iacute; como el tipo de redes CC se  presenta como una soluci&oacute;n atractiva, toda vez que incorpora varias soluciones  a dichos problemas.&nbsp; </p>    <p>     Adem&aacute;s, se ha probado experimentalmente pronosticando tres series de  tiempo del mundo real, que las redes cascadacorrelaci&oacute;n son una t&eacute;cnica  apropiada para el pron&oacute;stico de series temporales. Dado que en la mayor&iacute;a de  modelos usados para los experimentos las CC mostraron ser superiores a los MLP,  ANN y Arima, revelando errores menores en magnitud que los reportados en la  literatura con estas t&eacute;cnicas, es decir, CC alcanz&oacute; un mejor rendimiento que el  reportado con MLP, ANN y Arima. Adem&aacute;s, varias veces se lograron errores  cercanos, e incluso menores, que los reportados con DAN2. Consecuentemente, las  redes CC son una arquitectura alternativa para modelar y predecir series  temporales. </p>         ]]></body>
<body><![CDATA[<p>     Esta investigaci&oacute;n tiene  un impacto asociado al desarrollo de nuevos conocimientos en el &aacute;rea de la  predicci&oacute;n, que se ve impactada por la incorporaci&oacute;n de la red  cascada-correlaci&oacute;n al conjunto de t&eacute;cnicas usadas para el modelado y la  predicci&oacute;n de series de tiempo, as&iacute; como por la aplicabilidad pr&aacute;ctica que  tiene. Ello es debido a que hay un valor agregado relacionado con la utilidad  del modelo para representar la din&aacute;mica de series financieras y econ&oacute;micas.</p>         <p><font size = "3"><b>Agradecimientos </b></font></p>         <p>     Este art&iacute;culo se realiz&oacute;  en el marco del proyecto de investigaci&oacute;n &quot;Modelado y predicci&oacute;n de series  temporales no lineales usando redes cascada-correlaci&oacute;n&quot;, financiado por la DIME y la Universidad Nacional  de Colombia (Medell&iacute;n).</p>    <p><font size = "3"><b>Bibliograf&iacute;a </b></font></p>    <!-- ref --><p>     Box, G., Jenkins, G., Time  series analysis, forecasting and control., San Francisco, Holden-Day.,&nbsp; 1976.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000087&pid=S0120-5609201000010002700001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Campbell, M. J.,&nbsp; Walker, A. M.,&nbsp; A survey of statistical work on the mackenzie  river series of annual canadian lynx trappings for the years 1821-1934 and a  new analysis., Journal of the Royal Statistical Society. Series A. Statistics  in Society., Vol. 140, NO. 4, 1977, pp. 411-431.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000088&pid=S0120-5609201000010002700002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Cybenko, G., Approximation  by superpositions of a sigmoidal function., Mathematics of Control: Signals and  Systems. Vol. 2,&nbsp; 1989, pp. 202-314&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000089&pid=S0120-5609201000010002700003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Darbellay, G.,&nbsp; Slama , M., &nbsp;Forecasting the short-term demand for  electricity: do neural networks stand a better chance?., International Journal  of Forecasting. Vol. 16, 2000, pp. 71-83.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000090&pid=S0120-5609201000010002700004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Engle, R., Autoregressive  conditional heteroscedasticity with estimates of the variance of UK inflation.,  Econometrica. Vol. 50, NO. 4, Jul., 1982, pp. 987-1008.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000091&pid=S0120-5609201000010002700005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Fahlman, S. E., Lebiere, C.,  The Cascade-Correlation learning architecture. Advances in Neural Information  Processing Systems. Advances in Neural Information Processing Systems. Vol. 2,  1990, pp. 524-532.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000092&pid=S0120-5609201000010002700006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Faraway, J., Chatfield, C.,  Time series forecasting with neural networks: A comparative study using the  airline data. Applied Statistic. Vol. 47, NO. 2, 1998, pp. 231-250.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000093&pid=S0120-5609201000010002700007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Funahashi, K., On the  approximate realization of continuous mappings by neural networks. Neural  Neworks. Vol. 2, 1989, pp. 183-192.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000094&pid=S0120-5609201000010002700008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Ghiassi, M., Saidane, H.,  Zimbra, D., A dynamic artificial neural network model for forecasting time  series events., International Journal of Forecasting. Vol. 21, NO. 2, 2005, pp.  341-362. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000095&pid=S0120-5609201000010002700009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Heravi, S., Osborn D.,  Birchenhall, C., Linear versus neural network forecasts for european industrial  production series., International Journal of Forecasting. Vol. 20, 2004, pp.  435-446.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000096&pid=S0120-5609201000010002700010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Hornik, K., Stinchcombe, M.,  White, H., Multilayer feedforward networks are universal approximators., Neural  Networks. Vol. 2, NO. 5, 1989, pp. 359-366. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000097&pid=S0120-5609201000010002700011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Kuan, C., Liu, T,.  Forecasting exchange rates using feedforwad and recurrent neural networks.  Journal of Applied Econometrics. Vol. 10, 1995, pp. 347-364.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000098&pid=S0120-5609201000010002700012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Makridakis, S. G.,  Wheelwright, S. C., Hyndman, R. J., Forecasting: Methods and applications., New  York John Wiley &amp; Sons., 1998.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000099&pid=S0120-5609201000010002700013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Masters, T., Practical  neural network recipes in C++.&nbsp; New York, Academic  Press, 1993.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000100&pid=S0120-5609201000010002700014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Ortiz, D. M., Villa, F. A., Vel&aacute;squez, J. D.,  Una Comparaci&oacute;n entre Estrategias Evolutivas y RPROP para la Estimaci&oacute;n de Redes  Neuronales., Avances en Sistemas e Inform&aacute;tica. Vol. 4, NO. 2, 2007, pp.  135-144.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000101&pid=S0120-5609201000010002700015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Rao, T. S., Gabr, M., An  introduction to bispectral analysis and bilinear time series models. Lecture Notes  in Statistics. Vol. 24, 1984, pp. 528-535.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000102&pid=S0120-5609201000010002700016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Saidane, H., Ghiassi, M., A  dynamic architecture for artificial neural networks. Neurocomputing. Vol. 63,  Ene., 2005, pp. 397-413. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000103&pid=S0120-5609201000010002700017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Sarle, W., Neural networks  and statistical models., The 19th Annual SAS Users Group Int. Conference. Cary, NC: SAS Institute, 1994, pp.  1538-1550.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000104&pid=S0120-5609201000010002700018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Vel&aacute;squez, J. D., Gonz&aacute;lez, L. M., Modelado  del &iacute;ndice de tipo de cambio real colombiano usando redes neuronales  artificiales., Cuadernos de Administraci&oacute;n. Vol. 19, NO. 32, 2005, pp. 319-336.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000105&pid=S0120-5609201000010002700019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Vel&aacute;squez, J. D., Montoya, S. F. Modelado del  &iacute;ndice de precios al consumidor usando un modelo h&iacute;brido basado en redes  neuronales artificiales. Revista Dyna. Vol. 72, NO. 147, 2005, pp. 85-93.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000106&pid=S0120-5609201000010002700020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Zhang, G., Patuwo, B., Hu,  M., Forecasting with artificial neural networks: the state of the art.,  International Journal of Forecasting. Vol. 14, Nro. 1, 1998, pp. 35-62.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000107&pid=S0120-5609201000010002700021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>     Zhang, G., Time Series  forecasting using a hybrid ARIMA and neural network model., Neurocomputing., Vol.  50, 2003, pp. 159-175. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000108&pid=S0120-5609201000010002700022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Box]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Jenkins]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<source><![CDATA[Time series analysis, forecasting and control]]></source>
<year>1976</year>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Holden-Day]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[M. J]]></given-names>
</name>
<name>
<surname><![CDATA[Walker]]></surname>
<given-names><![CDATA[A. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey of statistical work on the mackenzie river series of annual canadian lynx trappings for the years 1821-1934 and a new analysis]]></article-title>
<source><![CDATA[Journal of the Royal Statistical Society. Series A. Statistics in Society]]></source>
<year>1977</year>
<volume>140</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>411-431</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cybenko]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<source><![CDATA[Approximation by superpositions of a sigmoidal function]]></source>
<year>1989</year>
<volume>2</volume>
<page-range>202-314</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Darbellay]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Slama]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Forecasting the short-term demand for electricity: do neural networks stand a better chance?]]></article-title>
<source><![CDATA[International Journal of Forecasting]]></source>
<year>2000</year>
<volume>16</volume>
<page-range>71-83</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Engle]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Autoregressive conditional heteroscedasticity with estimates of the variance of UK inflation]]></article-title>
<source><![CDATA[Econometrica]]></source>
<year>Jul.</year>
<month>, </month>
<day>19</day>
<volume>50</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>987-1008</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fahlman]]></surname>
<given-names><![CDATA[S. E]]></given-names>
</name>
<name>
<surname><![CDATA[Lebiere]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Cascade-Correlation learning architecture. Advances in Neural Information Processing Systems]]></article-title>
<source><![CDATA[Advances in Neural Information Processing Systems]]></source>
<year>1990</year>
<volume>2</volume>
<page-range>524-532</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Faraway]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Chatfield]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Time series forecasting with neural networks: A comparative study using the airline data]]></article-title>
<source><![CDATA[Applied Statistic]]></source>
<year>1998</year>
<volume>47</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>231-250</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Funahashi]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the approximate realization of continuous mappings by neural networks]]></article-title>
<source><![CDATA[Neural Neworks]]></source>
<year>1989</year>
<volume>2</volume>
<page-range>183-192</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ghiassi]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Saidane]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Zimbra]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A dynamic artificial neural network model for forecasting time series events]]></article-title>
<source><![CDATA[International Journal of Forecasting]]></source>
<year>2005</year>
<volume>21</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>341-362</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Heravi]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Osborn]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Birchenhall]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Linear versus neural network forecasts for european industrial production series]]></article-title>
<source><![CDATA[International Journal of Forecasting]]></source>
<year>2004</year>
<volume>20</volume>
<page-range>435-446</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hornik]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Stinchcombe]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[White]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multilayer feedforward networks are universal approximators]]></article-title>
<source><![CDATA[Neural Networks]]></source>
<year>1989</year>
<volume>2</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>359-366</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kuan]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Forecasting exchange rates using feedforwad and recurrent neural network]]></article-title>
<source><![CDATA[Journal of Applied Econometrics]]></source>
<year>1995</year>
<volume>10</volume>
<page-range>347-364</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Makridakis]]></surname>
<given-names><![CDATA[S. G]]></given-names>
</name>
<name>
<surname><![CDATA[Wheelwright]]></surname>
<given-names><![CDATA[S. C]]></given-names>
</name>
<name>
<surname><![CDATA[Hyndman]]></surname>
<given-names><![CDATA[R. J]]></given-names>
</name>
</person-group>
<source><![CDATA[Forecasting: Methods and applications]]></source>
<year>1998</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley & Sons.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Masters]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Practical neural network recipes in C++.]]></source>
<year>1993</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Academic Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ortiz]]></surname>
<given-names><![CDATA[D. M]]></given-names>
</name>
<name>
<surname><![CDATA[Villa]]></surname>
<given-names><![CDATA[F. A]]></given-names>
</name>
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J. D]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Una Comparación entre Estrategias Evolutivas y RPROP para la Estimación de Redes Neuronales]]></article-title>
<source><![CDATA[Avances en Sistemas e Informática]]></source>
<year>2007</year>
<volume>4</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>135-144</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rao]]></surname>
<given-names><![CDATA[T. S]]></given-names>
</name>
<name>
<surname><![CDATA[Gabr]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An introduction to bispectral analysis and bilinear time series models]]></article-title>
<source><![CDATA[Lecture Notes in Statistics]]></source>
<year>1984</year>
<volume>24</volume>
<page-range>528-535</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Saidane]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Ghiassi]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A dynamic architecture for artificial neural networks]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>Ene.</year>
<month>, </month>
<day>20</day>
<volume>63</volume>
<page-range>397-413</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sarle]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural networks and statistical models]]></source>
<year></year>
<conf-name><![CDATA[ The 19th Annual SAS Users Group Int. Conference]]></conf-name>
<conf-date>1994</conf-date>
<conf-loc>Cary NC</conf-loc>
<page-range>1538-1550</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J. D]]></given-names>
</name>
<name>
<surname><![CDATA[González]]></surname>
<given-names><![CDATA[L. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Modelado del índice de tipo de cambio real colombiano usando redes neuronales artificiales]]></article-title>
<source><![CDATA[Cuadernos de Administración]]></source>
<year>2005</year>
<volume>19</volume>
<numero>32</numero>
<issue>32</issue>
<page-range>319-336</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Montoya]]></surname>
<given-names><![CDATA[S. F]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Modelado del índice de precios al consumidor usando un modelo híbrido basado en redes neuronales artificiales]]></article-title>
<source><![CDATA[Revista Dyna]]></source>
<year>2005</year>
<volume>72</volume>
<numero>147</numero>
<issue>147</issue>
<page-range>85-93</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Patuwo]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Hu]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Forecasting with artificial neural networks: the state of the art]]></article-title>
<source><![CDATA[International Journal of Forecasting]]></source>
<year>1998</year>
<volume>14</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>35-62</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Time Series forecasting using a hybrid ARIMA and neural network model]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>2003</year>
<volume>50</volume>
<page-range>159-175</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
