<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1692-8261</journal-id>
<journal-title><![CDATA[Prospectiva]]></journal-title>
<abbrev-journal-title><![CDATA[Prospect.]]></abbrev-journal-title>
<issn>1692-8261</issn>
<publisher>
<publisher-name><![CDATA[Universidad Autónoma del Caribe, Facultad de Ingeniería]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1692-82612015000200011</article-id>
<article-id pub-id-type="doi">10.15665/rp.v13i2.491</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Comparación de Redes Neuronales aplicadas a la predicción de Series de Tiempo]]></article-title>
<article-title xml:lang="en"><![CDATA[Comparison of Neural Network applied to prediction of Time Series]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Mercado Polo]]></surname>
<given-names><![CDATA[Darwin]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Pedraza Caballero]]></surname>
<given-names><![CDATA[Luis]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez Gómez]]></surname>
<given-names><![CDATA[Edinson]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de la Costa - CUC  ]]></institution>
<addr-line><![CDATA[Barranquilla ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad de la Costa - CUC  ]]></institution>
<addr-line><![CDATA[Barranquilla ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Tecnosystems IT  ]]></institution>
<addr-line><![CDATA[Barranquilla ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>07</month>
<year>2015</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>07</month>
<year>2015</year>
</pub-date>
<volume>13</volume>
<numero>2</numero>
<fpage>88</fpage>
<lpage>95</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S1692-82612015000200011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S1692-82612015000200011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S1692-82612015000200011&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El presente estudio tiene como objetivo principal presentar la comparativa de las redes neuronales artificiales (RNA) tipo perceptrón multicapa (MLP) y de funciones de base radial (RBF) aplicadas a la predicción de series de tiempo. Se utilizó resilient backpropagation como algoritmo de aprendizaje para la red MLP y una combinación entre el algoritmo de los k-emanes y el método de la matriz pseudoinversa para la RBF. La implementación de las RNA se realizó utilizando un sistema basado en arquitectura cliente-servidor, previendo una futura integración con aplicaciones en tiempo real. Para la evaluación de las RNA se utilizaron conjuntos de datos de diferentes características y cantidad de datos. De acuerdo a los resultados obtenidos se concluye que para la utilización e integración de técnicas de inteligencia computacional en sistemas web, es preferible el uso de las RBF, debido a que obtiene mejores tiempos de ejecución. Es importante resaltar también que en calidad de respuesta los dos tipos de redes neuronales obtienen resultados similares.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The main objective of the present work is to compare artificial neural networks (ANN) Multilayer Perceptron (MLP) and radial basis function (RBF) applied to time series prediction. The learning algorithm used was the resilient backpropagation for MLP network and a combination of the K-Means algorithm and pseudoinverse matrix method for the RBF. The implementation of the RNA was performed using a client-server-based system architecture, anticipating a future integration with real-time applications. For the evaluation of RNA, datasets with different characteristics and amount of data was used. According to the results, it can be concluded that the use and integration of computational intelligence techniques in web systems, it is preferable to use the RBF, because you get better runtimes. It is also important to note that response of both types of neural networks obtained similar results.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Redes neuronales artificiales]]></kwd>
<kwd lng="es"><![CDATA[Predicción]]></kwd>
<kwd lng="es"><![CDATA[Series de tiempo]]></kwd>
<kwd lng="es"><![CDATA[Perceptrón multicapa]]></kwd>
<kwd lng="es"><![CDATA[Funciones de base radial]]></kwd>
<kwd lng="en"><![CDATA[Artificial Neural Networks]]></kwd>
<kwd lng="en"><![CDATA[Forecasting]]></kwd>
<kwd lng="en"><![CDATA[Time Series]]></kwd>
<kwd lng="en"><![CDATA[Multilayer Perceptron]]></kwd>
<kwd lng="en"><![CDATA[Radial Basis Functions]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face="verdana" size="2">      <P><I>Doi: <a href="http://dx.doi.org/10.15665/rp.v13i2.491" target="_blank">http://dx.doi.org/10.15665/rp.v13i2.491</a> </I></P>      <p align="center"><font size="4"><b>Comparaci&oacute;n de Redes Neuronales aplicadas a la predicci&oacute;n de Series de Tiempo </b></font></p>     <p align="center"><font size="3"><b>Comparison of Neural Network applied to prediction of Time Series </b></font></p>      <p align="center">Darwin Mercado Polo<Sup>1</Sup>, Luis Pedraza Caballero<Sup>2</Sup>, Edinson Mart&iacute;nez G&oacute;mez<Sup>3</Sup></P>      <p><sup>1</sup><I> Master en lenguajes y sistemas inform&aacute;ticos, Docente Tiempo Completo, Universidad de la Costa -  CUC, Ingenier&iacute;a de Software y Redes, Barranquilla - Colombia. </I>    <BR> <sup>2</sup><I> Magister en Ciencias de la computaci&oacute;n (c), Docente Investigador, Universidad de la Costa - CUC, Educaci&oacute;n, investigaci&oacute;n e Innovaci&oacute;n  en Ciencias B&aacute;sicas EDICBAS, Barranquilla - Colombia. </I>    <br> <sup>3</sup><I> Ingeniero de sistemas, Coordinador de desarrollo, Tecnosystems IT, Barranquilla - Colombia    <br> <a href="mailto:dmercado@cuc.edu.co">dmercado@cuc.edu.co</a> </I></P>      <P>Recibido 13/11/14, Aceptado 15/05/2015    ]]></body>
<body><![CDATA[<br>  Cite this article as: D.  Polo, L.  Pedraza, E.  Martinez, "Comparison of Neural Network applied to prediction of times Series",  <I>Prospect,</I> Vol 13, N&deg; 2, 88-95, 2015. </P>     <hr>     <p><font size="3"><b>Resumen</b></font></p>     <p>El presente estudio tiene como objetivo principal presentar la comparativa de las redes neuronales artificiales (RNA) tipo perceptr&oacute;n multicapa (MLP) y de funciones de base radial (RBF) aplicadas a la predicci&oacute;n de series de tiempo.  Se utiliz&oacute; resilient backpropagation como algoritmo de aprendizaje para la red MLP y una combinaci&oacute;n entre el algoritmo de los k-emanes y el m&eacute;todo de la matriz pseudoinversa para la RBF.  La implementaci&oacute;n de las RNA se realiz&oacute; utilizando un sistema basado en arquitectura cliente-servidor, previendo una futura integraci&oacute;n con aplicaciones en tiempo real.  Para la evaluaci&oacute;n de las RNA se utilizaron conjuntos de datos de diferentes caracter&iacute;sticas y cantidad de datos. De acuerdo a los resultados obtenidos se concluye que para la utilizaci&oacute;n e integraci&oacute;n de t&eacute;cnicas de inteligencia computacional en sistemas web, es preferible el uso de las RBF, debido a que obtiene mejores tiempos de ejecuci&oacute;n.  Es importante resaltar tambi&eacute;n que en calidad de respuesta los dos tipos de redes neuronales obtienen resultados similares.  </P>      <p><B>Palabras clave: </B>Redes neuronales artificiales; Predicci&oacute;n; Series de tiempo; Perceptr&oacute;n multicapa; Funciones de base radial.  </P>  <hr>     <p><font size="3"><b>Abstract</b></font></p>     <p>The main objective of the present work is to compare artificial neural networks (ANN) Multilayer Perceptron (MLP) and radial basis function (RBF) applied to time series prediction.  The learning algorithm used was the resilient backpropagation for MLP network and a combination of the K-Means algorithm and pseudoinverse matrix method for the RBF.  The implementation of the RNA was performed using a client-server-based system architecture, anticipating a future integration with real-time applications.  For the evaluation of RNA, datasets with different characteristics and amount of data was used. According to the results, it can be concluded that the use and integration of computational intelligence techniques in web systems, it is preferable to use the RBF, because you get better runtimes.  It is also important to note that response of both types of neural networks obtained similar results.  </P>      <p><B>Keywords: </B>Artificial Neural Networks; Forecasting; Time Series; Multilayer Perceptron; Radial Basis Functions.  </P>  <hr>     <p><B><font size="3">1.  Introducci&oacute;n</font></b></p>      <p>Una serie de   tiempo es un conjunto de datos obtenidos a partir de la observaci&oacute;n de   un fen&oacute;meno determinado durante periodos de tiempos iguales,   representando el cambio de una variable especifica de tipo econ&oacute;mico,   f&iacute;sico, qu&iacute;mico, financiero, biol&oacute;gico, entre otros. </p>     <p>Cuando se   trabaja con series temporales, una de las tareas m&aacute;s importantes es la   de predecir los datos futuros de la serie, es decir, a partir de los datos del   pasado proyectar los valores que tomar&aacute; la variable determinada. Para   llevar a cabo esta actividad se construye un modelo matem&aacute;tico que   capture, total o parcialmente las caracter&iacute;sticas de esta, por ejemplo   los modelos ARIMA. Estos, son modelos autorregresivos integrados de medias   m&oacute;viles y han demostrado gran utilidad en la predicci&oacute;n a corto   plazo de series de alta frecuencia. En contraste a los modelos ARIMA y   m&eacute;todos estad&iacute;sticos, las redes neuronales artificiales son   consideradas m&aacute;s robustas, especialmente en la representaci&oacute;n de   relaciones complejas que exhiben comportamientos no lineales. </p>     ]]></body>
<body><![CDATA[<p>Las Redes   Neuronales Artificiales (RNA) son sistemas de procesamiento de la   informaci&oacute;n cuya estructura y funcionamiento est&aacute;n inspirados en   las redes neuronales biol&oacute;gicas. En los &uacute;ltimos a&ntilde;os se ha   masificado el uso de las RNA para la predicci&oacute;n de series temporales   gracias a su capacidad generalizadora por el hecho de aprender a partir de   ejemplos, tal y como lo hace el cerebro humano. </p>     <p>En &#91;1&#93;   se demuestra el uso de algoritmos combinados con un modelo hibrido de funciones   de base radial para la modelaci&oacute;n y pron&oacute;stico de series de   tiempo no lineales, obteniendo resultados interesantes en cuanto a eficacia y   eficiencia utilizando este tipo de red neuronal. </p>     <p>Un estudio   te&oacute;rico y experimental de diferentes tipos de RNA como el multilayer   perceptron, Fir neural network y elman neural network es realizado en &#91;2&#93;.   Destacan las ventajas y desventajas de cada uno de estos en cuanto al dominio   del pron&oacute;stico y predicci&oacute;n de series de tiempo. De acuerdo a los   resultados experimentales obtenidos es necesario realizar una buena   configuraci&oacute;n de la red para lograr una buena aproximaci&oacute;n a los   datos reales, dependiendo del tipo de RNA que se est&eacute; utilizando. </p>     <p>Por otra   parte, Villa Garz&oacute;n &#91;3&#93;, en su tesis de maestr&iacute;a utiliza las   redes cascada correlaci&oacute;n para el modelado y predicci&oacute;n del   precio de la electricidad en mercados de corto plazo liberalizados, tomando   como punto de partida y de comparativa el multilayer perceptr&oacute;n con   algoritmo de aprendizaje resilient backpropagation. </p>     <p>Teniendo   en cuenta que los sistemas que utilizan arquitectura cliente-servidor son   desplegados en la web, lo que implica que son accesibles en cualquier lugar y   momento, la importancia de este trabajo radica en la comparaci&oacute;n e   implementaci&oacute;n de redes neuronales artificiales aplicadas a la predicci&oacute;n   de series de tiempo utilizando este tipo de arquitecturas para su posterior uso   en sistemas de tiempo real. </p>     <p>El   presente proyecto pretende realizar una implementaci&oacute;n web para redes   neuronales artificiales aplicadas a la predicci&oacute;n de series de tiempo,   utilizando herramientas de &uacute;ltima generaci&oacute;n que permiten   construir interfaces de usuario muy elegantes y excelentes resultados en   procesamiento de datos. Por otra parte, se desea que el usuario final no deba   preocuparse por los detalles de los elementos internos de la   implementaci&oacute;n, sino ocuparse de la definici&oacute;n de la arquitectura   de las RNA implementadas. </p>     <p><b><font size="3">2. Teor&iacute;a</font></b></p>     <p><b>2. 1.   Antecedentes </b></p>     <p>En las   &uacute;ltimas d&eacute;cadas, la aplicaci&oacute;n de las redes neuronales   artificiales en la predicci&oacute;n de series de tiempo ha ido creciendo por   las caracter&iacute;sticas ideales que ofrecen las RNA para trabajar con   modelos no lineales. As&iacute; mismo, el desarrollo de aplicaciones que   faciliten el trabajo a la hora de realizar las simulaciones con Redes   Neuronales Artificiales contin&uacute;a en aumento. </p>     <p>En &#91;4&#93;   se destacan las redes neuronales artificiales como uno de los m&eacute;todos de   predicci&oacute;n para series temporales gracias a su gran capacidad de   adaptaci&oacute;n y capacidad de representaci&oacute;n de procesos no lineales. </p>     ]]></body>
<body><![CDATA[<p>Saranli et   al &#91;5&#93; presentan las redes tipo RBF para la predicci&oacute;n de series de   tiempo ca&oacute;ticas utilizando como algoritmo de aprendizaje el algoritmo   relocating-lms, resaltando la consecuci&oacute;n de un error m&iacute;nimo al   comparar los datos reales de la serie de tiempo con los predichos por la red. </p>     <p>En &#91;6&#93;   se presenta una nueva t&eacute;cnica para la predicci&oacute;n no lineal de   series de tiempo a trav&eacute;s de las redes neuronales de funciones de base   radial con atribuci&oacute;n de centros gaussianos de las funciones de base   radial por descomposici&oacute;n de los espacios de datos en sub-espacios. </p>     <p>RBF son   utilizadas en &#91;7&#93; para la predicci&oacute;n del caudal de los r&iacute;os, en   este se destaca el proceso de aprendizaje al que es sometido la red neuronal y   los resultados con las distintas configuraciones utilizadas, demostrando las   variaciones que esto puede generar en las simulaciones de este tipo de   problemas. Adem&aacute;s se demuestra la eficacia de las RBF en la   predicci&oacute;n de series de tiempo. Tambi&eacute;n desarrolla un sistema   hibrido inteligente para la predicci&oacute;n y el pron&oacute;stico de   caudales en el cual utiliza las redes neuronales como una de las herramientas   inteligentes que ayudan al sistema para el desarrollo del objetivo. </p>     <p>Por otro   lado, basados en la red tipo MLP &#91;8&#93; se propone una nueva versi&oacute;n no   lineal del modelo airline; reemplazando la componente lineal de promedios   m&oacute;viles por un perceptr&oacute;n multicapa con el objetivo de realizar   pron&oacute;sticos de series de tiempo con tendencia y ciclo estacional. </p>     <p>En &#91;9&#93;   es utilizado un modelo que combina un modelo lineal autorregresivo (AR) con un   perceptr&oacute;n multicapa (MLP) con una &uacute;nica capa oculta,   permiti&eacute;ndole unir las ventajas de los modelos autorregresivos y de las   redes neuronales, de tal forma que es m&aacute;s f&aacute;cil capturar   din&aacute;micas complejas, tal como es el caso de los precios de electricidad.   Esto para realizar el modelado del precio spot de la electricidad en Brasil. </p>     <p>En cuanto   al desarrollo de aplicaciones que involucren redes neuronales artificiales y   las series temporales, Vel&aacute;squez et al &#91;10&#93;, desarrollan ARNN: un paquete   para la predicci&oacute;n de series de tiempo usando redes neuronales   autorregresivas, basado en el lenguaje de programaci&oacute;n R. implementando   como funciones principales la creaci&oacute;n y estimaci&oacute;n del modelo de   RNA y el pron&oacute;stico de la serie temporal. </p>     <p>Para el   caso de plataformas web que trabajen con redes neuronales se destaca el   desarrollo realizado por Watta, Hassoun, y Dannug de applets que permiten   simular varios tipos de redes neuronales &#91;11&#93;. Adem&aacute;s, en &#91;12&#93;   desarrollan una herramienta web para la simulaci&oacute;n de redes neuronales   artificiales con objetivo educativo, resaltando caracter&iacute;sticas   importantes de este tipo de proyectos como lo son: la accesibilidad con   respecto a software y hardware y la facilidad en el despliegue de la plataforma,   olvid&aacute;ndose de los obst&aacute;culos de la instalaci&oacute;n. Hay que   resaltar que esta plataforma muestra una interfaz de usuario poco elegante. </p>     <p>Es   evidente la importancia de las series de tiempo en las ramas del conocimiento   humano en donde las RNA juegan un papel central al permitir realizar   pron&oacute;sticos a las series temporales. El desarrollo de aplicaciones que   ayuden a optimizar el proceso de simulaci&oacute;n de estas toma mucha   relevancia en especial cuando los proyectos desarrollados son implementados en   internet. </p>     <p><b>2. 2.   Redes Neuronales Artificiales </b></p>     <p>Las Redes   Neuronales Artificiales (RNA) o sistemas conexionistas son sistemas de   procesamiento de la informaci&oacute;n cuya estructura y funcionamiento   est&aacute;n inspirados en las redes neuronales biol&oacute;gicas. Consisten en   un conjunto de elementos simples de procesamiento llamados nodos o neuronas   conectadas entre s&iacute; por conexiones que tienen un valor num&eacute;rico   modificable llamado peso &#91;13&#93;. </p>     ]]></body>
<body><![CDATA[<p>La   actividad que una unidad de procesamiento o neurona artificial realiza en un   sistema de este tipo es simple. Normalmente, consiste en sumar los valores de   las entradas (inputs) que recibe de otras unidades conectadas a ella, comparar   esta cantidad con el valor umbral y, si lo iguala o supera, enviar   activaci&oacute;n o salida (output) a las unidades a las que est&eacute;   conectada. Tanto las entradas que la unidad recibe como las salidas que   env&iacute;a dependen a su vez del peso o fuerza de las conexiones por las   cuales se realizan dichas operaciones &#91;14&#93;. </p>     <p>Una   neurona artificial se comporta como la neurona biol&oacute;gica pero de una   forma muy simplificada (<a href="#t1">tabla 1</a>). </p>     <p align=center><img  src="img/revistas/prosp/v13n2/v13n2a11t1.jpg"></p>     <p>La salida   de la red neuronal viene dada de la siguiente manera: </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11form1.jpg"></p>     <p>Donde f(.   ), es la funci&oacute;n de activaci&oacute;n de la neurona. Dentro de las   m&aacute;s utilizadas se encuentran la funci&oacute;n identidad,   escal&oacute;n, lineal a tramos, sigmoidea y sinusoidal. </p>     <p>El   aprendizaje en una RNA es un proceso de ajuste o modificaci&oacute;n de los   valores o pesos de las conexiones, en el que se logra que las salidas del   sistema sean lo m&aacute;s parecidas a las salidas deseadas proporcionadas por   el usuario. Las redes neuronales artificiales pueden clasificarse de acuerdo   con el tipo de aprendizaje que utilizan. </p>     <p><b>2. 2.   1. Perceptron Multicapa - MLP </b></p>     <p>El   perceptr&oacute;n multicapa (Multilayer Perceptron MLP) propuesto por Rumelhart   es el componente principal de una red neuronal, proporciona la base para la   mayor&iacute;a de las aplicaciones de las redes neuronales. </p>     <p>El MLP es   una red formada por una capa de entrada, al menos una capa oculta y una capa de   salida, tal como se muestra en la figura 1. </p>     ]]></body>
<body><![CDATA[<p align=center><img src="img/revistas/prosp/v13n2/v13n2a11f1.jpg"></p>     <p>Dentro de   las caracter&iacute;sticas m&aacute;s importantes del perceptr&oacute;n   multicapa se encuentran las siguientes: </p> <ul>       <li>Se     trata de una estructura altamente no lineal. </li>       <li>Presenta     tolerancia a fallos. </li>       <li>El     sistema es capaz de establecer una relaci&oacute;n entre dos conjuntos de     datos. </li>       <li>Existe     la posibilidad de realizar una implementaci&oacute;n hardware. </li>     </ul>     <p>El   algoritmo m&aacute;s popular de aprendizaje para el perceptr&oacute;n multicapa   es el backpropagation, el cual consiste en utilizar el error generado por la   red y propagarlo hacia atr&aacute;s, es decir, reproducirlo hacia las neuronas   de las capas anteriores. </p>     <p>El   algoritmo backpropagation para el MLP presenta ciertas desventajas, como son:   lentitud de convergencia, precio a pagar por disponer de un m&eacute;todo   general de ajuste funcional, puede incurrir en sobre aprendizaje,   fen&oacute;meno directamente relacionado con la capacidad de   generalizaci&oacute;n de la red. Y no garantiza el m&iacute;nimo global de la   funci&oacute;n de error, tan solo un m&iacute;nimo local. </p>     <p>Ante las   desventajas presentadas se han desarrollado variantes que buscan mitigar estos   inconvenientes, tal es el caso del resilient backpropagation, considerado como   uno de los algoritmos basados en gradiente m&aacute;s adecuados para entrenar   redes neuronales artificiales. </p>     ]]></body>
<body><![CDATA[<p>El algoritmo   resilient backpropagation es considerado como uno de los algoritmos m&aacute;s   robustos para la estimaci&oacute;n de los par&aacute;metros (o pesos) de una   red neuronal. En este proceso se busca encontrar los valores de los   par&aacute;metros la red neuronal tal que se minimice la diferencia entre los   valores deseados y los valores calculados por la red. </p>     <p>El   algoritmo RPROP, y sus variantes, difiere de la t&eacute;cnica cl&aacute;sica   de propagaci&oacute;n hacia atr&aacute;s del error (o algoritmo   backpropagation) en que las derivadas parciales de la funci&oacute;n de error   s&oacute;lo son usadas para determinar el sentido en que deben ser corregidos   los pesos de la red pero no las magnitudes de los ajustes. Los algoritmos   basados en backpropagation modifican los valores de los par&aacute;metros   proporcionalmente al gradiente de la funci&oacute;n de error, de tal forma que   en regiones donde el gradiente tiende a ser plano, el algoritmo avanza   lentamente. RPROP tampoco se ve afectado por la saturaci&oacute;n de las   neuronas de la red neuronal, ya que solamente se usa la derivada para determinar   la direcci&oacute;n en la actualizaci&oacute;n de pesos. Consecuentemente,   converge m&aacute;s r&aacute;pidamente que los algoritmos basados en   backpropagation &#91;3&#93;. </p>     <p><b>2. 2.   2. Redes Neuronales de Funciones de Base Radial - RBF </b></p>     <p>Una red de   funciones de base radial es una red neuronal que utiliza funciones de base   radial como funciones de activaci&oacute;n. La arquitectura utilizada por las   RBF es muy similar a la del perceptr&oacute;n multicapa, con la   caracter&iacute;stica de que las RBF utilizan siempre tres capas; una capa de   entrada, una capa oculta y una de salida, mientas que los MLP pueden tener   m&aacute;s. </p>     <p>En las RBF   la capa oculta realiza una transformaci&oacute;n no lineal del espacio de   entrada. Las neuronas de esta capa son las funciones de base radial y cada neurona   de la capa de salida es un combinador lineal &#91;14&#93;. </p>     <p>De modo   general, el valor generado por una red RBF con una &uacute;nica salida, viene   definido por la ecuaci&oacute;n: </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11form2.jpg"></p>     <p>Las redes   RBF son excelentes aproximadores universales y los par&aacute;metros que   definen el proceso de aproximaci&oacute;n son: </p> <ul>       <li>Los     pesos entre los centros y las neuronas del nivel de salida. </li>       <li>La     posici&oacute;n de los centros. </li>       ]]></body>
<body><![CDATA[<li>Las     funciones de Gauss de los centros. </li>     </ul>     <p>Los pesos   se ajustan utilizando el algoritmo de m&iacute;nimos cuadrados ordinarios (LMS,   Least Mean Square), pero se pueden utilizar tambi&eacute;n otros algoritmos   como el m&eacute;todo de la pseudo-inversa. Para ajustar los pesos utilizando   el m&eacute;todo de la pseudo-inversa, es necesario representar matricialmente   las salidas deseadas como el producto de las salidas de los centros por el   vector de pesos, como se muestra en la <a href="#form2">figura 2</a>: </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11f2.jpg"></p>     <p>De esta   manera se obtiene la siguiente relaci&oacute;n: </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11form3.jpg"></p>     <p>Donde D es   el vector de salidas deseadas, W es el vector de pesos y G es la matriz de salida   de los centros de la RBF. </p>     <p>De la   expresi&oacute;n anterior se obtiene el ajuste de pesos aplicando la pseudo   inversa de la matriz G: </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11form4.jpg"></p>     <p>Donde G<sup>+</sup> es la pseudo-inversa de la matriz G: </p>     ]]></body>
<body><![CDATA[<p align=center><img src="img/revistas/prosp/v13n2/v13n2a11form5.jpg"></p>     <p>Los centros   de la capa intermedia se pueden seleccionar utilizando diferentes   m&eacute;todos: </p> <ul>       <li><b>Selecci&oacute;n     aleatoria de centros: </b>Algunos vectores del espacio de entrada se pueden     elegir como centros. Si es posible, deben ser seleccionados de tal forma     que est&eacute;n repartidos de manera regular por todo el espacio de     entrada. </li>       <li><b>Autoselecci&oacute;n     de centros:</b> Una posibilidad es la utilizaci&oacute;n de m&eacute;todos de     entrenamiento que no requieran supervisi&oacute;n. Los centros se     sit&uacute;an en aquellas zonas del espacio de entrada, donde haya un     n&uacute;mero significativo de datos. La regla de los k-vecinos m&aacute;s     pr&oacute;ximos se puede utilizar para ajustar el valor de los centros.     <br>     Los citados algoritmos no garantizan la convergencia de la red, ya que E     no est&aacute; linealmente relacionada con la ubicaci&oacute;n de todos     los centros y, por tanto, se pueden alcanzar m&iacute;nimos locales     &#91;15&#93;. </li>     </ul>     <p><b>2. 3.   Redes Neuronales Artificiales y Series de Tiempo </b></p>     <p>Una serie   de tiempo viene determinado por un conjunto de observaciones que est&aacute;n   ordenadas en el tiempo, representando el cambio de una variable ya sea de tipo   econ&oacute;mico, f&iacute;sico, qu&iacute;mico, biol&oacute;gico, etc. a lo   largo de un per&iacute;odo determinado. Por lo general, el conjunto de   observaciones disponibles se encuentra almacenado a intervalos de tiempo iguales   &#91;16&#93;. </p>     <p>El   objetivo del an&aacute;lisis de las serie de tiempo es el conocimiento de su   patr&oacute;n de comportamiento, para as&iacute; poder prever su   evoluci&oacute;n en el futuro cercano, suponiendo que las condiciones no   variar&aacute;n significativa-mente. Si bien el comportamiento de cualquier   serie de tiempo puede observarse gr&aacute;ficamente, no en todos los casos es   posible distinguir las particularidades que cada una puede presentar. Existen   ciertos movimientos o variaciones caracter&iacute;sticas que pueden medirse y   observarse por separado. Estos movimientos son llamados a menudo componentes de   una serie de tiempo, y se asume que son causados por fen&oacute;menos   distintos. </p>     <p>Matem&aacute;ticamente   las series de tiempo est&aacute;n representadas mediante la relaci&oacute;n   tiempo observaci&oacute;n, descrita a trav&eacute;s de un conjunto de datos   num&eacute;ricos, como se muestra a continuaci&oacute;n &#91;17&#93;: </p>     ]]></body>
<body><![CDATA[<p align=center><img src="img/revistas/prosp/v13n2/v13n2a11form6.jpg"></p>     <p>El objetivo   entonces es encontrar un modelo que permita predecir los valores futuros a   trav&eacute;s de los ya obtenidos, de la siguiente manera: </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11form7.jpg"></p>     <p>Este   modelo generalmente abstrae las caracter&iacute;sticas m&aacute;s importantes   de la serie, de tal manera que se puedan obtener las predicciones de la serie   para intervalos de tiempo determinados. </p>     <p>En muchas   &aacute;reas del conocimiento las observaciones de inter&eacute;s son obtenidas   en instantes sucesivos del tiempo, por ejemplo, a cada hora, durante 24 horas,   mensuales, trimestrales, semestrales o bien registradas por alg&uacute;n equipo   en forma continua. De aqu&iacute; la importancia de este t&oacute;pico. </p>     <p>A   trav&eacute;s del tiempo se han desarrollado un gran n&uacute;mero de   t&eacute;cnicas para la predicci&oacute;n y el modelado de series de tiempo,   siendo las redes neuronales artificiales consideradas las m&aacute;s robustas y   eficaces para esta tarea. </p>     <p>Para   lograr predecir una serie de tiempo mediante una red neuronal artificial, esta   debe configurarse de manera que las entradas de la red sean valores pasados al   que se desea predecir. </p>     <p>El   entrenamiento de la red consiste en ajustar los pesos para obtener los valores   deseados de la serie en un instante de tiempo espec&iacute;fico. </p>     <p><b>2. 4.   Arquitectura Cliente-Servidor </b></p>     <p>La arquitectura   cliente-servidor(C/S) es un modelo de aplicaci&oacute;n distribuida en el que   las tareas se reparten entre los proveedores de recursos o servicios, llamados   servidores, y los demandantes, llamados clientes. Un cliente realiza peticiones   a otro programa, el servidor, que le da respuesta. Esta idea tambi&eacute;n se   puede aplicar a programas que se ejecutan sobre una sola computadora, aunque es   m&aacute;s ventajosa en un sistema operativo multiusuario distribuido a   trav&eacute;s de una red de computadoras. </p>     ]]></body>
<body><![CDATA[<p>En la   arquitectura C/S el remitente de una solicitud es conocido como cliente. Sus   caracter&iacute;sticas son: </p> <ul>       <li>Es     quien inicia solicitudes o peticiones, tienen por tanto un papel activo en     la comunicaci&oacute;n. </li>       <li>Espera     y recibe las respuestas del servidor. </li>       <li>Por     lo general, puede conectarse a varios servidores a la vez. </li>       <li>Normalmente     interact&uacute;a directamente con los usuarios finales mediante una     interfaz gr&aacute;fica de usuario. </li>     </ul>     <p>Al   receptor de la solicitud enviada por el cliente se conoce como servidor. Sus   caracter&iacute;sticas son: </p> <ul>       <li>Al     iniciarse esperan a que lleguen las solicitudes de los clientes,     desempe&ntilde;an entonces un papel pasivo en la comunicaci&oacute;n. </li>       <li>Tras     la recepci&oacute;n de una solicitud, la procesan y luego env&iacute;an la     respuesta al cliente. </li>       <li>Por     lo general, aceptan conexiones desde un gran n&uacute;mero de clientes (en     ciertos casos el n&uacute;mero m&aacute;ximo de peticiones puede estar     limitado). </li>       ]]></body>
<body><![CDATA[<li>No     es frecuente que interact&uacute;en directamente con los usuarios finales. </li>     </ul>     <p>Hoy en   d&iacute;a el desarrollo de aplicaciones que utilizan la arquitectura cliente-servidor,   generalmente trabajan implementando en este &uacute;ltimo el patr&oacute;n de   dise&ntilde;o MVC (Modelo, Vista, Controlador), ya que se ha convertido en una   gu&iacute;a para el dise&ntilde;o de arquitecturas de aplicaciones y brinda una   fuerte interactividad con los usuarios. La intenci&oacute;n de implementar este   patr&oacute;n es separar los datos de la aplicaci&oacute;n, la interfaz de   usuario y la l&oacute;gica de control. </p>     <p><b><font size="3">3. Metodolog&iacute;a</font></b></p>     <p>Para   lograr el objetivo del proyecto se plantea una metodolog&iacute;a basada en   fases que contempla las siguientes etapas: </p>     <p>Fase 1.   Exploraci&oacute;n y selecci&oacute;n de los diferentes tipos de redes   neuronales artificiales a ser implementadas. </p>     <p>En esta   fase se realiza un levantamiento bibliogr&aacute;fico de los diferentes tipos   de redes neuronales artificiales aplicadas al tratamiento de las series de   tiempo, para lo cual se consulta con expertos, revistas cient&iacute;ficas,   art&iacute;culos web, entre otras fuentes. Esto permiti&oacute; seleccionar los   tipos de red neuronal RBF y MLP. </p>     <p><b>Fase 2.   Dise&ntilde;o de la plataforma </b></p>     <p>En esta   fase se toma la ingenier&iacute;a de software como referente para el   establecimiento de dise&ntilde;os y diagramas que representen y abstraigan las   caracter&iacute;sticas m&aacute;s importante de los tipos de redes neuronales   artificiales seleccionados en la fase anterior. </p>     <p><b>Fase 3.   Desarrollo e implementaci&oacute;n de la plataforma. </b></p>     ]]></body>
<body><![CDATA[<p>En esta   fase se implementa en Python los algoritmos de aprendizaje para las redes   neuronales seleccionadas y se construye utilizando ExtJs las interfaces   gr&aacute;ficas de usuario. Finalmente se realiza el despliegue en el servidor   web apache. </p>     <p><b>Fase 4.   Test y comparaci&oacute;n de resultados </b></p>     <p>Esta etapa   se basa en la comparaci&oacute;n de los resultados de los tipos de red neuronal   implementados aplicando dos series de tiempo categorizadas en el &aacute;rea de   finanzas. Se toma un conjunto de test y otro de entrenamiento para determinar   la efectividad y tiempos de respuestas de las RNA. Se realiza la   simulaci&oacute;n en forma repetitiva y se toman los mejores resultados. </p>     <p><b><font size="3">4. Resultados</font> </b></p>     <p>Se   desarroll&oacute; una plataforma web utilizando el web server apache, el   lenguaje de programaci&oacute;n python para implementar los algoritmos de   aprendizaje de las redes neuronales artificiales seleccionadas y ExtJs para la   construcci&oacute;n de las interfaces gr&aacute;ficas de usuario. La plataforma   permite importar los datos de entrenamiento y test de la red a partir de   archivos delimitados por comas (CSV) y posterior a la ejecuci&oacute;n de la   simulaci&oacute;n son desplegados los resultados obtenidos por la RNA (<a href="#f3">figura 3</a>). Tambi&eacute;n es posible realizar la   representaci&oacute;n del error obtenido y de los resultados de la red. </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11f3.jpg"></p>     <p>Para   evaluar las redes neuronales artificiales se utilizaron conjuntos de datos de   diferentes caracter&iacute;sticas y cantidad de datos. Se realizaron 10   replicaciones para cada dataset variando las configuraciones de las redes   neuronales, utilizando 4, 5, 6 y 7 neuronas en la capa oculta. Se   seleccion&oacute; la mejor respuesta obtenida por las redes neuronales en   cuanto a porcentaje de efectividad. Los resultados son mostrados en la <a href="#t2">tabla 2</a>. </p>     <p align=center><img src="img/revistas/prosp/v13n2/v13n2a11t2.jpg"></p>     <p>De los   valores obtenidos se puede observar que el porcentaje de efectividad de los dos   tipos de redes neuronales es pr&oacute;ximo. Con 95% de confianza no se puede   establecer que en cuanto a calidad de respuesta un tipo de red neuronal es   mejor que otro. </p>     <p>Otro   aspecto importante a tener en cuenta es el tiempo de ejecuci&oacute;n de cada   red neuronal, en la <a href="#t3">tabla 3</a> son mostrados los tiempos de   ejecuci&oacute;n en segundos para los datasets testados:</p>     ]]></body>
<body><![CDATA[<p align=center><img src="img/revistas/prosp/v13n2/v13n2a11t3.jpg"></p>     <p>La tabla   de tiempos de ejecuci&oacute;n muestra claramente que la RBF presenta mejores   tiempos de ejecuci&oacute;n. Con 95% de confianza es posible afirmar que la RBF   obtiene mejores resultados en comparaci&oacute;n con la red MLP. Este aspecto   es de mucha relevancia dado que se prev&eacute; la utilizaci&oacute;n de este   tipo de t&eacute;cnicas de inteligencia computacional para integrarlos en   sistemas Web. </p>     <p><b><font size="3">5. Conclusiones</font> </b></p>     <p>En este   art&iacute;culo se present&oacute; una comparaci&oacute;n de dos tipos de redes   neuronales artificiales aplicadas al dominio de la predicci&oacute;n de series   de tiempo. Se utiliz&oacute; un sistema con arquitectura cliente-servidor para   evaluar el desempe&ntilde;o de las RNA, en cuanto a tiempo y calidad de   respuesta. Se opt&oacute; por utilizar este tipo de arquitectura previendo la   integraci&oacute;n con aplicaciones web 2. 0, en donde las t&eacute;cnicas de   inteligencia computacional abarcan un factor importante. Los resultados   muestran claramente que: </p> <ul>       <li>En     cuanto a tiempo de ejecuci&oacute;n la red neuronal tipo RBF obtiene las     mejores respuestas, siendo este un factor relevante cuando se trabaja con     sistemas web. </li>       <li>En     cuanto a calidad de respuesta, la RBF y MLP obtienen resultados muy     pr&oacute;ximos y las herramientas estad&iacute;sticas utilizadas     establecen con 95% de confianza que las RBF y MLP no son totalmente     diferentes. </li>       <li>En     la integraci&oacute;n de redes neuronales aplicadas a la predicci&oacute;n     de series de tiempo es preferible el uso de las RBF en comparaci&oacute;n     con las MLP. </li>       <li>El     uso de estas redes neuronales ser&iacute;a un gran aporte sobre la     predicci&oacute;n en todos los proyectos que incluyen series de tiempo     como: estimaci&oacute;n y predicci&oacute;n de la moneda,     predicci&oacute;n de las condiciones ambientales, toma de decisiones desde     el punto financiero y predicci&oacute;n en el crecimiento poblacional.</li>    </ul>  <hr>     <p><font size="3"><b>Referencias </b></font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p>&#91;1&#93; M.  Nasir, (1993, August) Time Series Modelling and Prediction Using Neural Networks.  Masters thesis.  Universiti Teknologi Mara.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000143&pid=S1692-8261201500020001100001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;2&#93; T.  Koskela, M.  Lehtokangas, J.  Saarinen &amp; K.  Kaski.  (1996, September) Time Series Prediction with Multilayer Perceptron, FIR and Elman Neural Networks.  Presentado en World Congress on Neural Networks.  &#91;En L&iacute;nea&#93; Disponible: &lt;<a href="http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=8E47EA4845D879E4251A9706E58EB6C2?doi=10.1.1.35.1631&amp;rep=rep1&amp;type=pdf" target="_blank">http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=8E47EA4845D879E4251A9706E58EB6C2?doi=10.1.1.35.1631&amp;rep=rep1&amp;type=pdf</a>&gt;    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000145&pid=S1692-8261201500020001100002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->.  </P>      <!-- ref --><p>&#91;3&#93; F.  Villa, (2010, Octubre) Modelado y Predicci&oacute;n del Precio de la Electricidad en Mercados de Corto Plazo Liberalizados Usando Redes Cascada Correlaci&oacute;n.  Tesis de Maestr&iacute;a.  Universidad Nacional de Colombia.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000147&pid=S1692-8261201500020001100003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;4&#93; V.  Ribeiro, Goldschmidt R.  &amp; Choren R., "M&eacute;todos para Previs&atilde;o de S&eacute;ries Temporais e suas Tend&ecirc;ncias de Desenvolvimento",  Monograf&iacute;as en Sistemas e Computa&ccedil;&atilde;o, 3, 1-26, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000149&pid=S1692-8261201500020001100004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;5&#93; A.  Saranli, B.  Baykal, (2010) Chaotic Time-Series Prediction and the Relocating-LMS (RLMS) Algorithm for Radial Basis Function Networks &#91;Internet&#93;, Imperial College of Science.  Disponible desde: &lt;<a href="http://www.eurasip.org/Proceedings/Eusipco/1996/paper/pas_8.pdf" target="_blank">http://www.eurasip.org/Proceedings/Eusipco/1996/paper/pas_8.pdf</a>&gt; &#91;Acceso 20 de Octubre 2014&#93;    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000151&pid=S1692-8261201500020001100005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->.</P>      ]]></body>
<body><![CDATA[<!-- ref --><p>&#91;6&#93; M.  Filipetto, (2001, Marzo) Predi&ccedil;&atilde;o N&atilde;o-Linear de S&eacute;ries Temporais Usando Redes Neurais RBF por Descomposi&ccedil;&atilde;o em Componentes Principais.  Tese de Doutorado.  Universidad Estadual de Campinas.  Faculdade de Engenharia El&eacute;trica e de Computa&ccedil;&atilde;o.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000153&pid=S1692-8261201500020001100006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;7&#93; C.  Fajardo, D.  Gonz&aacute;lez, B.  Soto &amp; F.  Fern&aacute;ndez-Riverola, "Water flows modelling and forecasting using a RBF neural network",  Sistemas y Telem&aacute;tica, 6 (12), 13-31, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000155&pid=S1692-8261201500020001100007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;8&#93; J. D.  Vel&aacute;squez &amp; C. J.  Franco, "Pron&oacute;stico de series de tiempo con tendencia y ciclo estacional usando el modelo airline y redes neuronales artificiales",  Ingenier&iacute;a y Ciencia, 8 (15), 171-189, 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000157&pid=S1692-8261201500020001100008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;9&#93; J.  Vel&aacute;squez, D.  Isaac &amp; R.  Souza, "Ingeniare Spot Price Modelling in Brasil Using an Autoregressive Neural Network",  Revista Chilena de Ingenier&iacute;a, 6 (3), 394-403, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000159&pid=S1692-8261201500020001100009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;10&#93; J.  Velazquez, C.  Zambrano &amp; L.  Velez, "ARNN: Apackages for time series forecasting using autoregressive neural netowork",  Revista Avances en Sistemas e Inform&aacute;tica, 8 (2), 177-181, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000161&pid=S1692-8261201500020001100010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      ]]></body>
<body><![CDATA[<!-- ref --><p>&#91;11&#93; P.  Watta, M.  Hassoun &amp; N.  Dannug, (1996) ABackprop Learning Tool for Function Approximation &#91;Internet&#93;, Wayne State University.  Disponible desde: &lt;<a href="http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html" target="_blank">http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html</a>&gt;&#91;Acceso 21 de Octubre 2014&#93;    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000163&pid=S1692-8261201500020001100011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->.  </P>      <!-- ref --><p>&#91;12&#93; M.  Manic, B.  Wilamowki &amp; A.  Malinowski.  (2002, November) IEEE 2002 28th Annual Conference of the Industrial Electronics Society, &#91;En L&iacute;nea&#93;.  Disponible: <a href="http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp=&amp;arnumber=1182851&amp;url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D1182851" target="_blank">http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp=&amp;arnumber=1182851&amp;url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D1182851</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000165&pid=S1692-8261201500020001100012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;13&#93; I.  Chaman, (2010, Septiembre) Integraci&oacute;n Num&eacute;rica con Redes Neuronales.  Tesis de Pregrado.  Benem&eacute;rita Universidad Aut&oacute;noma de Puebla.  Facultad de Ciencias de la Computaci&oacute;n.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000167&pid=S1692-8261201500020001100013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;14&#93; J.  Monta&ntilde;o, (2002, Septiembre) Redes Neuronales Artificiales aplicadas al An&aacute;lisis de Datos.  Tesis Doctoral.  Universitat de les Illes Balears.  Facultad de Psicolog&iacute;a.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000169&pid=S1692-8261201500020001100014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;15&#93; M. F.  Bouami, (2005, Julio) Desarrollo y Optimizaci&oacute;n de Nuevos Modelos de Redes Neuronales Basadas en Funciones de Base Radial.  Tesis Doctoral.  Universidad de Granada.  Departamento de Arquitectura y Tecnolog&iacute;a de Computadores.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000171&pid=S1692-8261201500020001100015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      ]]></body>
<body><![CDATA[<!-- ref --><p>&#91;16&#93; C.  Fajardo, (2008, Julio) Sistema Inteligente para la Estimaci&oacute;n y Pron&oacute;stico de Caudales.  Tesis Doctoral.  Universidad de Vigo.  Departamento de Inform&aacute;tica.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000173&pid=S1692-8261201500020001100016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->  </P>      <!-- ref --><p>&#91;17&#93; M.  Arellano.  (2001) Introducci&oacute;n al An&aacute;lisis Cl&aacute;sico de Series de Tiempo &#91;Internet&#93;, Universidad de Zaragoza.  Disponible desde: &lt;<a href="http://www.5campus.com/leccion/seriest" target="_blank">http://www.5campus.com/leccion/seriest</a>&gt; &#91;Acceso 22 de Octubre 2014&#93;    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000175&pid=S1692-8261201500020001100017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->.  </P>      <!-- ref --><p>&#91;18&#93; M.  Lichman.  (2013) UCI Machine Learning Repository &#91;Internet&#93;, University of California.  Disponible desde: &lt;<a href="http://archive.ics.uci.edu/ml" target="_blank">http://archive.ics.uci.edu/ml</a>&gt; &#91;Acceso 10 de Agosto 2013&#93;    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000177&pid=S1692-8261201500020001100018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->.  </P> </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nasir]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Time Series Modelling and Prediction Using Neural Networks]]></source>
<year>1993</year>
<month>, </month>
<day>Au</day>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Koskela]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Lehtokangas]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Saarinen]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Kaski]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<source><![CDATA[Time Series Prediction with Multilayer Perceptron, FIR and Elman Neural Networks]]></source>
<year>1996</year>
<month>, </month>
<day>Se</day>
<conf-name><![CDATA[ Presentado en World Congress on Neural Networks]]></conf-name>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Villa]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Modelado y Predicción del Precio de la Electricidad en Mercados de Corto Plazo Liberalizados Usando Redes Cascada Correlación]]></source>
<year>2010</year>
<month>, </month>
<day>Oc</day>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ribeiro]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
<name>
<surname><![CDATA[Goldschmidt]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Choren]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Métodos para Previsão de Séries Temporais e suas Tendências de Desenvolvimento]]></source>
<year>2009</year>
<volume>3</volume>
<page-range>1-26</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Saranli]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Baykal]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<source><![CDATA[Chaotic Time-Series Prediction and the Relocating-LMS (RLMS) Algorithm for Radial Basis Function Networks]]></source>
<year>2010</year>
<publisher-name><![CDATA[Imperial College of Science]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Filipetto]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Predição Não-Linear de Séries Temporais Usando Redes Neurais RBF por Descomposição em Componentes Principais]]></source>
<year>2001</year>
<month>, </month>
<day>Ma</day>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fajardo]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[González]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Soto]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Fernández-Riverola]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Water flows modelling and forecasting using a RBF neural network]]></article-title>
<source><![CDATA[Sistemas y Telemática]]></source>
<year>2008</year>
<volume>6</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>13-31</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J. D.]]></given-names>
</name>
<name>
<surname><![CDATA[Franco]]></surname>
<given-names><![CDATA[C. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Pronóstico de series de tiempo con tendencia y ciclo estacional usando el modelo airline y redes neuronales artificiales]]></article-title>
<source><![CDATA[Ingeniería y Ciencia]]></source>
<year>2012</year>
<volume>8</volume>
<numero>15</numero>
<issue>15</issue>
<page-range>171-189</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Isaac]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Souza]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ingeniare Spot Price Modelling in Brasil Using an Autoregressive Neural Network]]></article-title>
<source><![CDATA[Revista Chilena de Ingeniería]]></source>
<year>2008</year>
<volume>6</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>394-403</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velazquez]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Zambrano]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Velez]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[ARNN: Apackages for time series forecasting using autoregressive neural netowork]]></article-title>
<source><![CDATA[Revista Avances en Sistemas e Informática]]></source>
<year>2011</year>
<volume>8</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>177-181</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Watta]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Hassoun]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Dannug]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
</person-group>
<source><![CDATA[ABackprop Learning Tool for Function Approximation]]></source>
<year>1996</year>
<publisher-name><![CDATA[Wayne State University]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Manic]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Wilamowki]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Malinowski]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[IEEE 2002 28th Annual Conference of the Industrial Electronics Society]]></source>
<year>2002</year>
<month>, </month>
<day>No</day>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chaman]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
</person-group>
<source><![CDATA[Integración Numérica con Redes Neuronales]]></source>
<year>2010</year>
<month>, </month>
<day>Se</day>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Montaño]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Redes Neuronales Artificiales aplicadas al Análisis de Datos]]></source>
<year>2002</year>
<month>, </month>
<day>Se</day>
</nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bouami]]></surname>
<given-names><![CDATA[M. F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Desarrollo y Optimización de Nuevos Modelos de Redes Neuronales Basadas en Funciones de Base Radial]]></source>
<year>2005</year>
<month>, </month>
<day>Ju</day>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fajardo]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Sistema Inteligente para la Estimación y Pronóstico de Caudales]]></source>
<year>2008</year>
<month>, </month>
<day>Ju</day>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arellano]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Introducción al Análisis Clásico de Series de Tiempo]]></source>
<year>2001</year>
<publisher-name><![CDATA[Universidad de Zaragoza]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lichman]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[UCI Machine Learning Repository]]></source>
<year>2013</year>
<publisher-name><![CDATA[University of California]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
