<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0012-7353</journal-id>
<journal-title><![CDATA[DYNA]]></journal-title>
<abbrev-journal-title><![CDATA[Dyna rev.fac.nac.minas]]></abbrev-journal-title>
<issn>0012-7353</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional de Colombia]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0012-73532014000200001</article-id>
<article-id pub-id-type="doi">10.15446/dyna.v81n184.39699</article-id>
<title-group>
<article-title xml:lang="en"><![CDATA[Nonlinear time series forecasting using MARS]]></article-title>
<article-title xml:lang="es"><![CDATA[Predicción de series de tiempo no lineales usando MARS]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Velásquez-Henao]]></surname>
<given-names><![CDATA[Juan David]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Franco-Cardona]]></surname>
<given-names><![CDATA[Carlos Jaime]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Camacho]]></surname>
<given-names><![CDATA[Paula Andrea]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia Facultad de Minas ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>04</month>
<year>2014</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>04</month>
<year>2014</year>
</pub-date>
<volume>81</volume>
<numero>184</numero>
<fpage>11</fpage>
<lpage>19</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0012-73532014000200001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0012-73532014000200001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0012-73532014000200001&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="en"><p><![CDATA[One of the most important uses of artificial neural networks is to forecast non-linear time series, although model-building issues, such as input selection, model complexity and parameters estimation, remain without a satisfactory solution. More of research efforts are devoted to solve these issues. However, other models emerged from statistics would be more appropriated than neural networks for forecasting, in the sense that the process of model specification is based entirely on statistical criteria. Multivariate adaptive regression splines (MARS) is a statistical model commonly used for solving nonlinear regression problems, and it is possible to use it for forecasting time series. Nonetheless, there is a lack of studies comparing the results obtained using MARS and neural network models, with the aim of determinate which model is better. In this paper, we forecast four nonlinear time series using MARS and we compare the obtained results against the reported results in the technical literature when artificial neural networks and the ARIMA approach are used. The main finding in this research, it is that for all considered cases, the forecasts obtained with MARS are lower in accuracy in relation to the other approaches.]]></p></abstract>
<abstract abstract-type="short" xml:lang="es"><p><![CDATA[Uno de los usos más importantes de las redes neuronales artificiales es el pronóstico de series de tiempo no lineales, aunque los problemas en la construcción del modelo, tales como la selección de las entradas, la complejidad del modelo y la estimación de los parámetros, permanecen sin una solución satisfactoria. La mayoría de los esfuerzos en investigación están orientados a resolver estos problemas. Sin embargo, los modelos emergidos de la estadística podrían ser más adecuados que las redes neuronales para el pronóstico, en el sentido de que el proceso de especificación es basado enteramente en criterios estadísticos. La regresión adaptativa multivariada por tramos (MARS, por su sigla en inglés) es un método estadístico comúnmente usado para resolver problemas no lineales de regresión, y es posible usarlo para el pronóstico de series de tiempo. No obstante, faltan estudios que comparen los resultados obtenidos usando MARS y redes neuronales artificiales, con el fin de determinar cuál modelo es mejor. En este artículo, se pronostican cuatro series de tiempo no lineales usando MARS y se comparan los resultados obtenidos contra los resultados reportados en la literatura técnica cuando se usan las redes neuronales artificiales y la aproximación ARIMA. El principal hallazgo en esta investigación es que, para todos los casos considerados, los pronósticos obtenidos con MARS son inferiores en precisión respecto a otras aproximaciones.]]></p></abstract>
<kwd-group>
<kwd lng="en"><![CDATA[Artificial neural networks]]></kwd>
<kwd lng="en"><![CDATA[comparative studies]]></kwd>
<kwd lng="en"><![CDATA[ARIMA models]]></kwd>
<kwd lng="en"><![CDATA[nonparametric methods]]></kwd>
<kwd lng="es"><![CDATA[Redes neuronales artificiales]]></kwd>
<kwd lng="es"><![CDATA[estudios comparativos]]></kwd>
<kwd lng="es"><![CDATA[modelos ARIMA]]></kwd>
<kwd lng="es"><![CDATA[métodos no paramétricos]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <font size="2" face="Verdana">      <p><a href="http://dx.doi.org/10.15446/dyna.v81n184.39699" target="_blank">http://dx.doi.org/10.15446/dyna.v81n184.39699</a></p>     <p align="center"><font size="4" face="Verdana"><b>Nonlinear time series forecasting using MARS</b></font> </p>     <p align="center"><i><font size="3"><b>Predicci&oacute;n de series de tiempo no lineales usando MARS</b></font> </i></p>     <br>     <p align="center"><b>Juan David Vel&aacute;squez-Henao <i><sup>a</sup></i>, Carlos Jaime Franco-Cardona <i><sup>b</sup></i> &amp; Paula Andrea Camacho <i><sup>c</sup></i></b></p>     <p align="center"><i><sup>a </sup>Facultad de Minas,   Universidad Nacional de Colombia, Colombia. <a href="mailto:jdvelasq@unal.edu.co">jdvelasq@unal.edu.co</a>    <br>   <sup>b </sup>Facultad de Minas,   Universidad Nacional de Colombia, Colombia. <a href="mailto:cjfranco@unal.edu.co">cjfranco@unal.edu.co</a>    <br>   <sup>c </sup>Facultad de Minas,   Universidad Nacional de Colombia, Colombia. <a href="mailto:pcamach@unal.edu.co">pcamach@unal.edu.co</a></i></p>     <br>     ]]></body>
<body><![CDATA[<p align="center"><b>Received:   September 17<sup>th</sup>, 2012. Received in revised form: December 1<sup>th</sup>, 2013. Accepted: March   3<sup>th</sup>, 2014.</b></p>     <br> <hr>     <p><b>Abstract    <br>   </b>One of the most important uses of artificial neural   networks is to forecast non-linear time series, although model-building issues,   such as input selection, model complexity and parameters estimation, remain   without a satisfactory solution. More of research efforts are devoted to solve   these issues. However, other models emerged from statistics would be more   appropriated than neural networks for forecasting, in the sense that the   process of model specification is based entirely on statistical criteria.   Multivariate adaptive regression splines (MARS) is a statistical model commonly   used for solving nonlinear regression problems, and it is possible to use it   for forecasting time series. Nonetheless, there is a lack of studies comparing   the results obtained using MARS and neural network models, with the aim of   determinate which model is better. In this paper, we forecast four nonlinear   time series using MARS and we compare the obtained results against the reported   results in the technical literature when artificial neural networks and the   ARIMA approach are used. The main finding in this research, it is that for all   considered cases, the forecasts obtained with MARS are lower in accuracy in   relation to the other approaches.</p>     <p><i>Keywords</i>: Artificial neural networks;   comparative studies; ARIMA models; nonparametric methods.</p>     <p><b>Resumen    <br>   </b>Uno de los usos m&aacute;s importantes de las redes   neuronales artificiales es el pron&oacute;stico de series de tiempo no lineales,   aunque los problemas en la construcci&oacute;n del modelo, tales como la selecci&oacute;n de   las entradas, la complejidad del modelo y la estimaci&oacute;n de los par&aacute;metros,   permanecen sin una soluci&oacute;n satisfactoria. La mayor&iacute;a de los esfuerzos en   investigaci&oacute;n est&aacute;n orientados a resolver estos problemas. Sin embargo, los   modelos emergidos de la estad&iacute;stica podr&iacute;an ser m&aacute;s adecuados que las redes   neuronales para el pron&oacute;stico, en el sentido de que el proceso de   especificaci&oacute;n es basado enteramente en criterios estad&iacute;sticos. La regresi&oacute;n   adaptativa multivariada por tramos (MARS, por su sigla en ingl&eacute;s) es un m&eacute;todo   estad&iacute;stico com&uacute;nmente usado para resolver problemas no lineales de regresi&oacute;n,   y es posible usarlo para el pron&oacute;stico de series de tiempo. No obstante, faltan   estudios que comparen los resultados obtenidos usando MARS y redes neuronales   artificiales, con el fin de determinar cu&aacute;l modelo es mejor. En este art&iacute;culo,   se pronostican cuatro series de tiempo no lineales usando MARS y se comparan   los resultados obtenidos contra los resultados reportados en la literatura   t&eacute;cnica cuando se usan las redes neuronales artificiales y la aproximaci&oacute;n   ARIMA. El principal hallazgo en esta investigaci&oacute;n es que, para todos los casos   considerados, los pron&oacute;sticos obtenidos con MARS son inferiores en precisi&oacute;n   respecto a otras aproximaciones.</p>     <p><i>Palabras clave</i>: Redes   neuronales artificiales; estudios comparativos; modelos ARIMA; m&eacute;todos no   param&eacute;tricos. </p> <hr>     <p> </p>     <p><b>1 Introducci&oacute;n </b></p>     ]]></body>
<body><![CDATA[<p>La predicci&oacute;n de series de tiempo no lineales es una de las   principales aplicaciones de las redes neuronales artificiales &#91;1&#93;, siendo este   un problema de inter&eacute;s particular para muchos cient&iacute;ficos y profesionales   provenientes de diversas &aacute;reas del conocimiento &#91;2&#93;. Una revisi&oacute;n profunda sobre la predicci&oacute;n de   series de tiempo usando redes neuronales es presentada en &#91;3&#93;; ejemplos de casos espec&iacute;ficos son presentados   en &#91;4-8&#93;.</p>     <p>Uno de los tipos m&aacute;s comunes de red neuronal que han sido utilizados   para la predicci&oacute;n de series de tiempo son los perceptores multicapa (MLP, por   su sigla en ingl&eacute;s) &#91;3&#93;; ello es debido a que pueden aproximar cualquier   funci&oacute;n continua definida en un dominio compacto con una precisi&oacute;n arbitraria &#91;9-11&#93;. No obstante, su proceso de especificaci&oacute;n se   basa en un conjunto de pasos cr&iacute;ticos donde se emplean criterios emp&iacute;ricos y   juicio experto &#91;12-14&#93;. Estos pasos est&aacute;n relacionados con el procesamiento de   la informaci&oacute;n, la selecci&oacute;n de las entradas a la red neuronal, de la cantidad   correcta de neuronas a la capa oculta y la estimaci&oacute;n de sus par&aacute;metros, entre   otros. Las decisiones tomadas en cualquiera de los pasos del m&eacute;todo de   especificaci&oacute;n, afectan el desempe&ntilde;o final del modelo en t&eacute;rminos de su ajuste   a los datos hist&oacute;ricos y su capacidad de generalizaci&oacute;n; esto implica, que el   proceso de especificaci&oacute;n no es f&aacute;cilmente reproducible, haci&eacute;ndolo muy   cuestionable &#91;4&#93;. Desde el trabajo   seminal de Anders y Korn &#91;15&#93;, se ha venido trabajando en metodolog&iacute;as de   especificaci&oacute;n basadas criterios estad&iacute;sticos, pero no se ha llegado a definir   criterios que sean aceptados en forma amplia por la comunidad cient&iacute;fica. Aunque   otras arquitecturas de redes neuronales, como las m&aacute;quinas de vectores de   soporte (SVM, por su sigla en ingl&eacute;s) &#91;16,17&#93;   o las redes neuronales de arquitectura adaptativa (DAN2, por su sigla en   ingl&eacute;s) &#91;5&#93;, han sido usadas con &eacute;xito para la predicci&oacute;n de series de tiempo &#91;8,18&#93;,   persisten muchos de los problemas enunciados en la especificaci&oacute;n del modelo.</p>     <p>La persistencia de los problemas planteados da pie a investigar s&iacute;   otros m&eacute;todos alternativos a las redes neuronales artificiales podr&iacute;an ser   usados de forma directa, pero, sin la existencia de dichos problemas en   especificaci&oacute;n del modelo. Una de dichas metodolog&iacute;as alternativas es MARS   (multivariate adaptive regression splines) &#91;19-21&#93;; este es un modelo   estad&iacute;stico de regresi&oacute;n no lineal que se basa en la construcci&oacute;n de regiones   que dividen el dominio de las variables de entrada, y en la asignaci&oacute;n de un   modelo de regresi&oacute;n lineal para cada una de las regiones obtenidas. El   algoritmo de especificaci&oacute;n de MARS est&aacute; espec&iacute;ficamente dise&ntilde;ado para   seleccionar las variables de entrada y determinar la configuraci&oacute;n &oacute;ptima del   modelo a partir de criterios estad&iacute;sticos &#91;19&#93;; igualmente, es notoria la   rapidez para la estimaci&oacute;n de sus par&aacute;metros &oacute;ptimos. MARS, al ser una   metodolog&iacute;a para construir modelos de regresi&oacute;n no lineal, podr&iacute;a   realizar las mismas tareas que son usualmente abordadas con modelos de redes   neuronales artificiales &#91;22-25&#93;. </p>     <p>Debido a las ventajas te&oacute;ricas y conceptuales presentadas por MARS,   resulta natural su aplicaci&oacute;n a la predicci&oacute;n de series de tiempo no lineales.   Por ejemplo, Lewis y Stevens &#91;26&#93; muestran la relaci&oacute;n entre MARS y los modelos   TAR postulados por Tong &#91;27&#93;, y usan MARS para analizar la serie de manchas   solares de Wolf; en &#91;6&#93; se usa MARS para pronosticar serie de Mackey-Glass, y   compara los resultados obtenidos con otros modelos; en &#91;28&#93; se pronostican   tasas de cambio, mientras que en &#91;29&#93; se pronostican series hidrol&oacute;gicas; en &#91;30&#93;   se analiza el comportamiento de los &iacute;ndices de producci&oacute;n industrial de Estados   Unidos y Canad&aacute;. </p>     <p> Sin embargo, hay pocas   evidencias que permitan determinar si MARS es realmente superior en precisi&oacute;n   respecto a las redes neuronales para el pron&oacute;stico de series de tiempo. Por   ejemplo, en &#91;31&#93; se concluye que MARS es m&aacute;s preciso que los perceptrones   multicapa, la regresi&oacute;n lineal m&uacute;ltiple y las m&aacute;quinas de vectores de soporte   cuando se pronostica el &iacute;ndice de mercado Shangai B-share. No obstante, tambi&eacute;n   se ha reportado que MARS es inferior en capacidad a ciertos tipos de modelos de   redes neuronales artificiales; en &#91;32&#93; se concluye que las m&aacute;quinas de vectores   de soporte son m&aacute;s precisas que MARS cuando se pronostica la demanda urbana de   agua; en &#91;33&#93; se presentan evidencias indicando que las redes neuronales   artificiales son m&aacute;s precisas que MARS al pronosticar la demanda de   electricidad; finalmente, en &#91;34&#93; se concluye que las redes neuronales   recurrentes superan a MARS en el pron&oacute;stico de series de tiempo hidrol&oacute;gicas. </p>     <p>El objetivo de esta investigaci&oacute;n es comparar la precisi&oacute;n de los pron&oacute;sticos obtenidos con MARS y los   obtenidos con diferentes arquitecturas de redes neuronales artificiales y con   el modelo ARIMA, al pronosticar cinco series de tiempo no lineales. El trabajo pr&aacute;ctico en esta investigaci&oacute;n se   centra en pronosticar dichas series usando MARS; para las redes neuronales y el   modelo ARIMA se recurri&oacute; a resultados previamente reportados en otras   investigaciones &#91;4,5,7,8&#93;, de tal forma, que el lector debe remitirse a dichas   fuentes para consultar detalles sobre los modelos alternativos considerados.</p>     <p>El   resto de este art&iacute;culo est&aacute; organizado como sigue: En la pr&oacute;xima secci&oacute;n, se   presenta el modelo MARS. Posteriormente, se describen los casos y de aplicaci&oacute;n   y se analizan los resultados obtenidos. Finalmente, se concluye. </p>     <br>     <p><b>2 Multivariate Adaptive Regression Splines </b></p>     <p>MARS es   un modelo no param&eacute;trico de regresi&oacute;n no lineal que permite explicar la   dependencia de la variable respuesta respecto una o m&aacute;s variables explicativas &#91;19&#93;. MARS suele ser preferido sobre otros modelos   no param&eacute;tricos de regresi&oacute;n debido a que: permite aproximar relaciones no   lineales complejas a partir de los datos, sin postular una hip&oacute;tesis sobre el   tipo de no linealidad presente en los datos, tal como si ocurre en los modelos   param&eacute;tricos de regresi&oacute;n; el algoritmo de construcci&oacute;n del modelo incorpora   mecanismos que permite seleccionar las variables explicativas relevantes,   descartando aquellas que no aportan informaci&oacute;n sobre la din&aacute;mica de la   variable dependiente; el modelo resultante puede ser interpretado, al contrario   de otros modelos de caja negra, como por ejemplo, las redes neuronales   artificiales; y finalmente, la estimaci&oacute;n de sus par&aacute;metros es   computacionalmente eficiente y r&aacute;pida, en oposici&oacute;n a como ocurren en los   modelos de redes neuronales artificiales. </p>     ]]></body>
<body><![CDATA[<p>En la   regresi&oacute;n basada en particionamiento recursivo, una funci&oacute;n desconocida es   aproximada dividiendo el espacio del dominio de las variables de entrada en <img src="img/revistas/dyna/v81n184/v81n184a01eq002.gif"> regiones disyuntas, tal que:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq004.gif"></p>     <p>donde <img src="img/revistas/dyna/v81n184/v81n184a01eq006.gif"> es una funci&oacute;n base que toma la forma de la   funci&oacute;n indicadora:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq008.gif"></p>     <p>que toma el valor de uno si es su argumento es verdadero y cero en   caso contrario. El algoritmo se inicia   con <img src="img/revistas/dyna/v81n184/v81n184a01eq010.gif">, lo que es equivalente a decir   que:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq012.gif"></p>     <p>Luego se consideran dos regiones (<img src="img/revistas/dyna/v81n184/v81n184a01eq014.gif">). El punto crucial en el   algoritmo es que la frontera de divisi&oacute;n es especificada como <img src="img/revistas/dyna/v81n184/v81n184a01eq016.gif">, donde <img src="img/revistas/dyna/v81n184/v81n184a01eq018.gif"> es la <img src="img/revistas/dyna/v81n184/v81n184a01eq020.gif">-&eacute;sima componente del vector <img src="img/revistas/dyna/v81n184/v81n184a01eq022.gif">, y <img src="img/revistas/dyna/v81n184/v81n184a01eq024.gif"> es un valor constante. Si <img src="img/revistas/dyna/v81n184/v81n184a01eq026.gif"> es la funci&oacute;n de paso unitario, que toma el   valor de la unidad cuando <img src="img/revistas/dyna/v81n184/v81n184a01eq028.gif">, y cero en caso contrario,   entonces, la nueva aproximaci&oacute;n obtenida para dos regiones es:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq030.gif"></p>     <p>donde las regiones y los coeficientes <img src="img/revistas/dyna/v81n184/v81n184a01eq032.gif"> y <img src="img/revistas/dyna/v81n184/v81n184a01eq034.gif"> son obtenidos tal que se maximice el ajuste a   los datos. N&oacute;tese que para partir la   regi&oacute;n <img src="img/revistas/dyna/v81n184/v81n184a01eq036.gif"> es necesario introducir una pareja de   funciones <img src="img/revistas/dyna/v81n184/v81n184a01eq038.gif">.</p>     <p>Luego   se toma <img src="img/revistas/dyna/v81n184/v81n184a01eq040.gif">. En este caso, se consideran   todos los posibles modelos que se obtienen al partir una de las dos regiones   obtenidas para <img src="img/revistas/dyna/v81n184/v81n184a01eq014.gif">, lo que permite llegar as&iacute; a   tres regiones. El algoritmo contin&uacute;a adicionando regiones hasta que se cumpla   alg&uacute;n criterio de parada. As&iacute;, en el modelo final y como resultado del algoritmo   de particionamiento recursivo, las funciones base toman la forma de:</p>     ]]></body>
<body><![CDATA[<p><img src="img/revistas/dyna/v81n184/v81n184a01eq042.gif"></p>     <p>donde: <img src="img/revistas/dyna/v81n184/v81n184a01eq044.gif"> es la cantidad de fronteras o particiones requeridas   para definir la regi&oacute;n <img src="img/revistas/dyna/v81n184/v81n184a01eq046.gif">; <img src="img/revistas/dyna/v81n184/v81n184a01eq048.gif"> toma los valores de <img src="img/revistas/dyna/v81n184/v81n184a01eq050.gif"> indicando el sentido de la funci&oacute;n de paso; <img src="img/revistas/dyna/v81n184/v81n184a01eq052.gif"> indica la variable que introduce la frontera;   y <img src="img/revistas/dyna/v81n184/v81n184a01eq054.gif"> es el valor de la frontera. El modelo obtenido   mediante particionamiento recursivo sufre de dos limitantes: en primer lugar,   la funci&oacute;n obtenida no es continua en las fronteras entre regiones; y segundo,   la inhabilidad del modelo para aproximar funciones lineales o aditivas.</p>     <p>MARS es   obtenido a partir de la metodolog&iacute;a anterior introduciendo las siguientes modificaciones. En primer lugar, Friedman &#91;19&#93; reemplaza la funci&oacute;n de paso <img src="img/revistas/dyna/v81n184/v81n184a01eq026.gif"> por una curva spline de orden <img src="img/revistas/dyna/v81n184/v81n184a01eq056.gif"> truncada por un lado:</p> <img src="img/revistas/dyna/v81n184/v81n184a01eq058.gif">     <br>     <p>donde <img src="img/revistas/dyna/v81n184/v81n184a01eq024.gif"> es la ubicaci&oacute;n de la frontera, y el s&iacute;mbolo + indica que se tome la parte positiva del argumento. De esta forma, las   funciones base en el modelo final pueden escribirse como:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq060.gif"></p>     <p>Usualmente <img src="img/revistas/dyna/v81n184/v81n184a01eq062.gif">, por lo que las funciones base   son lineales por tramos. De esta forma, es com&uacute;n reescribir la ecuaci&oacute;n   anterior como:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq064.gif"></p>     <p>O equivalentemente</p> <img src="img/revistas/dyna/v81n184/v81n184a01eq066.gif">      <p>La   introducci&oacute;n de curvas spline causa que las regiones se traslapen en vez de ser   disyuntas, generando la continuidad en las fronteras entre regiones. El   siguiente cambio introducido en &#91;19&#93; es que cuando se realiza una partici&oacute;n que   genera dos nuevas regiones hijas, la regi&oacute;n padre original no es removida del   modelo. Ello permite que tanto la regi&oacute;n padre como sus dos regiones hijas   puedan ser elegibles para ser divididas en pasos posteriores. Igualmente, se   proh&iacute;be que la misma variable <img src="img/revistas/dyna/v81n184/v81n184a01eq018.gif"> sea usada m&aacute;s de una vez dentro del producto de t&eacute;rminos que definen una funci&oacute;n   base <img src="img/revistas/dyna/v81n184/v81n184a01eq006.gif">; ello para evitar que se   generen polinomios de orden mayor a <img src="img/revistas/dyna/v81n184/v81n184a01eq056.gif">. </p>     ]]></body>
<body><![CDATA[<p>El   algoritmo de especificaci&oacute;n descrito hasta este punto corresponde a una fase de   pasada hacia adelante, en la cual se crean las regiones en el espacio de   variables de entrada. En una segunda fase, se eval&uacute;a si pueden eliminarse   funciones base sin que se comprometa la calidad del modelo obtenido.</p>     <p>Si <img src="img/revistas/dyna/v81n184/v81n184a01eq068.gif">, entonces es demostrable que el   modelo matem&aacute;tico generado por MARS es:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq070.gif"></p>     <p>Agrupando todas las funciones base que envuelven los mismos conjuntos   de variables explicativas, se llega a que la funci&oacute;n puede reescribirse como:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq072.gif"></p>     <p>donde <i>a</i><sub>0</sub> corresponde a una constante, mas la suma de   las funciones bases de una variable, mas la suma de todas las funciones base de   dos variables, y as&iacute; sucesivamente. </p>     <p>La   selecci&oacute;n final del modelo es realizada explorando modelos que difieren en la cantidad de   regiones utilizadas<sub>,</sub> y seleccionando aquel que minimice el criterio   de validaci&oacute;n cruzada generalizada, que es   una medida que incorpora el ajuste a los   datos y una penalizaci&oacute;n por la complejidad del modelo. En MARS, este criterio   de selecci&oacute;n es la falta de ajuste (LOF, por su sigla en ingl&eacute;s):</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq076.gif"></p>     <p>donde <img src="img/revistas/dyna/v81n184/v81n184a01eq002.gif"> es el n&uacute;mero final de funciones base, <img src="img/revistas/dyna/v81n184/v81n184a01eq078.gif"> es la cantidad de datos, <img src="img/revistas/dyna/v81n184/v81n184a01eq080.gif"> es el valor de la funci&oacute;n que se desea aproximar, <img src="img/revistas/dyna/v81n184/v81n184a01eq082.gif"> es el modelo con <img src="img/revistas/dyna/v81n184/v81n184a01eq002.gif"> funciones base, <img src="img/revistas/dyna/v81n184/v81n184a01eq084.gif"> es el   vector de valores de las variables independientes en el punto <img src="img/revistas/dyna/v81n184/v81n184a01eq086.gif">, y <img src="img/revistas/dyna/v81n184/v81n184a01eq088.gif"> es un factor de penalizaci&oacute;n por el aumento de la varianza debido al   aumento de la complejidad del modelo:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq090.gif"></p>     ]]></body>
<body><![CDATA[<p><img src="img/revistas/dyna/v81n184/v81n184a01eq092.gif"> es la matriz de datos de las funciones base. <img src="img/revistas/dyna/v81n184/v81n184a01eq094.gif"> es un par&aacute;metro que representa el costo de la   optimizaci&oacute;n de cada funci&oacute;n base; cuando incrementa podr&iacute;a causar que se generen menos puntos de   corte (fronteras). Friedman &#91;19&#93; sugiere <img src="img/revistas/dyna/v81n184/v81n184a01eq096.gif">; por defecto, <img src="img/revistas/dyna/v81n184/v81n184a01eq098.gif">. </p>     <br> <b>3 Resultados obtenidos </b>     <p>En esta secci&oacute;n se compara la precisi&oacute;n de los pron&oacute;sticos obtenidos   usando MARS versus los pron&oacute;sticos obtenidos en otras investigaciones usando   perceptrones multicapa, modelos ARIMA, DAN2 y m&aacute;quinas de vectores de   soporte. Se invita al lector a consultar   los detalles de los pron&oacute;sticos realizados con los modelos alternativos en las   referencias citadas en esta secci&oacute;n. Para realizar los c&aacute;lculos presentados se us&oacute; la funci&oacute;n mars del   paquete mda, implementado en el lenguaje   R para el c&oacute;mputo estad&iacute;stico.</p>     <p>Para todos los casos considerados, se utilizaron como estad&iacute;sticos de   ajuste el error cuadr&aacute;tico medio (MSE, por su sigla en ingl&eacute;s) y el error medio   absoluto (MAD, por su sigla en ingl&eacute;s). </p>     <p>La informaci&oacute;n disponible para cada serie de tiempo fue separada en un   conjunto de datos para el entrenamiento o calibraci&oacute;n de los par&aacute;metros del   modelo, y en un conjunto para pron&oacute;stico o validaci&oacute;n. Las cantidades de datos usados para el ajuste   del modelo y para la predicci&oacute;n, son las mismas usadas en estudios previos para   cada serie analizada.</p>     <p>Ya que el algoritmo de especificaci&oacute;n de MARS permite la selecci&oacute;n de   las entradas relevantes al modelo, se procedi&oacute; a realizar la especificaci&oacute;n   para cada serie estudiada, considerando como posibles regresores los rezagos 1-<img src="img/revistas/dyna/v81n184/v81n184a01eq100.gif">, donde <img src="img/revistas/dyna/v81n184/v81n184a01eq100.gif"> es el m&aacute;ximo rezago utilizado en estudios   previos. Igualmente, se vari&oacute; el   par&aacute;metro <img src="img/revistas/dyna/v81n184/v81n184a01eq094.gif"> (penalizaci&oacute;n por la cantidad de funciones   base) desde 2 hasta 4.</p>      <p><b>3.1 Serie PAPER    <br>   </b>Corresponde a las ventas mensuales de papel impreso y escrito en miles   de francos franceses entre 1/1963 y 12/1972. En &#91;35&#93; se reporta que el modelo   ARIMA con menor error cuadr&aacute;tico medio (MSE) para representar la din&aacute;mica de la   serie es de orden (0, 1, 1) X (0, 1, 1)<sub>12</sub> usando la totalidad de la   informaci&oacute;n. No obstante, para la evaluaci&oacute;n del pron&oacute;stico usando modelos no   lineales, se usan las primeras 100 observaciones para el ajuste de los modelos,   y las 20 restantes para la predicci&oacute;n por fuera de la muestra de calibraci&oacute;n.   La serie es pronosticada sin ninguna transformaci&oacute;n. Esta serie es graficada en   la <a href="#fig01">Fig. 1</a>. </p>     <p align="center"><a name="fig01"></a><img src="img/revistas/dyna/v81n184/v81n184a01fig01.gif"></p>      <p>En la literatura t&eacute;cnica se ha reportado que los mejores pron&oacute;sticos   (por modelo) se obtienen con un modelo ARIMA que usa los rezagos 1, 12, y 13 &#91;5&#93;, y con los   rezagos 1, 7 y 12 para las redes neuronales tipo MLP &#91;5&#93;, DAN2 &#91;5&#93; y SVM &#91;8&#93;.   Los estad&iacute;sticos de ajuste para estos modelos son reportados en la <a href="#tab01">Tabla 1</a>.</p>     ]]></body>
<body><![CDATA[<p align="center"><a name="tab01"></a><img src="img/revistas/dyna/v81n184/v81n184a01tab01.gif"></p>     <p>Al igual que para los casos reportados en la literatura, MARS fue   estimado sobre los primeros 100 datos, y luego se procedi&oacute; a realizar el   pron&oacute;stico del siguiente mes usando los datos reales, para las 20 observaciones   restantes. Para la especificaci&oacute;n de MARS se consideraron los rezagos desde 1   hasta el 13. El modelo final obtenido es   &uacute;nicamente funci&oacute;n de <img src="img/revistas/dyna/v81n184/v81n184a01eq102.gif">. </p>     <p>En la <a href="#tab01">Tabla 1</a> se presentan los estad&iacute;sticos de ajuste obtenidos. Para   las muestras de entrenamiento y calibraci&oacute;n, MARS es inferior al modelo ARIMA   en t&eacute;rminos de la precisi&oacute;n obtenida. No obstante, la precisi&oacute;n de DAN2 es   notoria y sigue siendo el modelo que mejor se adapta a la din&aacute;mica de la serie   analizada. Puede decirse que MARS es superior a las SVM, ya que su error de   ajuste a la muestra de calibraci&oacute;n es mejor (el 86% del MSE reportado para la   muestra de entrenamiento), y tiene un error pr&aacute;cticamente igual para la muestra   de pron&oacute;stico.</p> <b>3.2 Serie POLLUTION    <br> </b>Es la cantidad de despachos mensuales de un equipo de poluci&oacute;n en  miles de francos franceses, entre 1/1986 y 1/1996. La serie modelada  corresponde al logaritmo natural de los datos originales. Las primeras 106  observaciones son usada para la estimaci&oacute;n de los modelos, mientras que las 24  restantes son usadas para su validaci&oacute;n. Esta serie es graficada en la <a href="#fig02">Fig. 2</a>.     <p align="center"><a name="fig02"></a><img src="img/revistas/dyna/v81n184/v81n184a01fig02.gif"></p>      <p>En investigaciones previas se encontr&oacute; que: el mejor modelo ARIMA para   pronosticar la serie es de orden (2,1,0)(1,0,0)<sub>12</sub> &#91;5&#93;, lo que   equivale a usar los rezagos 1-3 y 12-15; el mejor MLP usa los rezagos 1-12 &#91;5&#93;; igualmente   en &#91;5&#93; se reportaron los resultados para modelos DAN2 que usan los siguientes grupos de rezagos: 1-3, 12-15; 1-12;    y finalmente, 1-15. En &#91;8&#93; se pronostica esta misma   serie con dos SVM que usa los grupos de rezagos 1-3, 12-15, y 1-12. Los estad&iacute;sticos   de ajuste para estos modelos son reportados en la <a href="#tab02">Tabla 2</a>.</p>     <p align="center"><a name="tab02"></a><img src="img/revistas/dyna/v81n184/v81n184a01tab02.gif"></p>     <p>El algoritmo de selecci&oacute;n de MARS fue aplicado sobre los rezagos 1-15;   el modelo final obtenido pronostica el valor actual como funci&oacute;n de los rezagos   1, 3 y 12. Los estad&iacute;sticos de ajuste calculados para MARS se reportan en la <a href="#tab02">Tabla 2</a>. En t&eacute;rminos del MSE para la   muestra de entrenamiento, MARS es el s&eacute;ptimo modelo en calidad de ajuste en un   ordenamiento del menor al mayor MSE; el   MLP reportado en &#91;5&#93; presenta el mayor MSE entre todos los modelos. No   obstante, es ligeramente superior en la precisi&oacute;n de la predicci&oacute;n, ocupando el   quinto lugar. Los valores del MSE calculados para MARS, para las muestras de   entrenamiento y pron&oacute;stico, son superiores en m&aacute;s de 3 veces respecto a los   mejores valores del MSE. DAN2 sigue siendo el mejor modelo tanto en   entrenamiento como en validaci&oacute;n. </p> <b>3.3 Serie LYNX    <br> </b>Es el n&uacute;mero de linces canadienses atrapados por a&ntilde;o en el distrito  del rio Mckenzie del norte de Canad&aacute; entre los a&ntilde;os 1821 y 1934. Se pronostica  el logaritmo en base 10 de la serie original. Las primeras 100 observaciones  son usada para el ajuste de los modelos y las 14 restantes para la predicci&oacute;n  por fuera de la muestra de calibraci&oacute;n. En la <a href="#fig03">Figura 3</a> se presenta el gr&aacute;fico  de la serie.      <p align="center"><a name="fig03"></a><img src="img/revistas/dyna/v81n184/v81n184a01fig03.gif"></p>      ]]></body>
<body><![CDATA[<p>Esta serie es usada en &#91;7&#93; para evaluar el desempe&ntilde;o de un modelo ARIMA, un MLP y un modelo h&iacute;brido que   combina las dos metodolog&iacute;as anteriores; en &#91;7&#93; se reporta que el MLP tiene una   estructura de 7 entradas correspondientes a los primeros 7 rezagos de la serie,   5 neuronas en la capa oculta, y una neurona de salida. Ghiassi, Saidane y Zimbra &#91;5&#93; probaron   diferentes configuraciones del modelo DAN2 que difieren en los rezagos   utilizados para su especificaci&oacute;n. Estos   mismos grupos de rezagos fueron usados por Vel&aacute;squez, Olaya y Franco &#91;8&#93; para   evaluar la precisi&oacute;n de la predicci&oacute;n usando SVM. Los resultados obtenidos en estas   investigaciones son reportados en la <a href="#tab02">Tabla 3</a>.</p>      <p align="center"><a name="tab02"></a><img src="img/revistas/dyna/v81n184/v81n184a01tab03.gif"></p>      <p>Al igual que en los otros casos analizados, se aplic&oacute; el algoritmo de   especificaci&oacute;n de MARS considerando que las variables explicativas corresponden   a los valores rezagados de la serie de tiempo entre uno y diez a&ntilde;os. Este   &uacute;ltimo valor, es el m&aacute;ximo rezago usado en &#91;5&#93;. Para este caso, el algoritmo de especificaci&oacute;n report&oacute; los rezagos 1, 2,   3, 5, 9 como relevantes.</p>     <p>Para esta serie de tiempo, MARS se destaca por su baja precisi&oacute;n en el   entrenamiento y la predicci&oacute;n. En t&eacute;rminos del MSE, es el pen&uacute;ltimo modelo considerando la muestra de entrenamiento,   mientras que presenta la precisi&oacute;n m&aacute;s baja entre todos los modelos para la   muestra de predicci&oacute;n. Los MSE de MARS son m&aacute;s de siete veces los mejores MSE   reportados en la <a href="#tab02">Tabla 3</a>.</p> <b>3.4 Serie INTERNET    <br> </b>Es la    cantidad de usuarios que acceden a un servidor de internet por    minuto durante 100 minutos consecutivos. Los primeros 80 datos son usados para    la estimaci&oacute;n del modelo, y los 20 restantes para su predicci&oacute;n. Se modela la    serie original sin ning&uacute;n tipo de transformaci&oacute;n. La serie es graficada en la <a href="#fig04">Figura 4</a>.      <p align="center"><a name="fig04"></a><img src="img/revistas/dyna/v81n184/v81n184a01fig04.gif"></p>     <p>Esta   serie es analizada en &#91;35&#93;, y se   sugiere que un modelo ARIMA de orden (3, 1, 0) ser&iacute;a el m&aacute;s adecuado para   representar su din&aacute;mica. Ghiassi, Saidane y   Zimbra &#91;5&#93; reportan los   resultados obtenidos al estimar: un MLP con rezagos 1, 2, 3 y 4, y DAN2 con los   grupos de rezagos del 1-3 y de 1-4. Vel&aacute;squez, Olaya y Franco &#91;8&#93; realizan la   predicci&oacute;n de esta serie usando un SVM que tiene como entradas los rezagos 1-4. Los estad&iacute;sticos   de ajuste para dichos modelos aparecen en la <a href="#tab04">Tabla 4</a>.</p>     <p align="center"><a name="tab04"></a><img src="img/revistas/dyna/v81n184/v81n184a01tab04.gif"></p>     <p>Los   rezagos uno al cuatro fueron utilizados para especificar el modelo MARS. El modelo final seleccionado usa &uacute;nicamente   los rezagos 1 y 2. Al analizar la <a href="#tab04">Tabla 4</a>, resulta notoria la falta de   precisi&oacute;n de MARS. Presente el MSE y el MAD m&aacute;s altos entre todos los modelos,   para ambas muestras de datos (entrenamiento y predicci&oacute;n). En ambos casos, el   MSE calculado para MARS es m&aacute;s de tres veces el menor MSE reportado en la <a href="#tab04">Tabla   4</a>.</p>     <br>     ]]></body>
<body><![CDATA[<p><b>4 DISCUSI&Oacute;N </b></p>     <p>En las   secciones anteriores se ha discutido el principio matem&aacute;tico sobre el que est&aacute;   fundamentado MARS y sus posibles ventajas sobre otros modelos de caja negra   como las redes neuronales artificiales, tales como su velocidad de estimaci&oacute;n y   su capacidad de seleccionar variables   relevantes. No obstante, la experimentaci&oacute;n realizada sobre cuatro   series benchmark que ya han sido utilizadas en otras investigaciones para la   comparaci&oacute;n de modelos no lineales de pron&oacute;stico, revela que MARS tiene   dificultades para capturar la din&aacute;mica de las series consideradas. En esta Secci&oacute;n se indaga sobre el por qu&eacute; se   da esta situaci&oacute;n. </p>     <p>El   particionamiento recursivo es un principio para la aproximaci&oacute;n de funciones   bastante diferente al utilizado por los MLP. Por ejemplo, el MLP de la <a href="#tab04">Tabla 4</a> podr&iacute;a representarse matem&aacute;ticamente como:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq112.gif"></p>     <p>donde <img src="img/revistas/dyna/v81n184/v81n184a01eq114.gif">; <img src="img/revistas/dyna/v81n184/v81n184a01eq116.gif">, con <img src="img/revistas/dyna/v81n184/v81n184a01eq118.gif"> y <img src="img/revistas/dyna/v81n184/v81n184a01eq120.gif">, son los par&aacute;metros del   modelo; <img src="img/revistas/dyna/v81n184/v81n184a01eq122.gif"> es la cantidad de neuronas en la capa oculta;   y <img src="img/revistas/dyna/v81n184/v81n184a01eq124.gif"> es la funci&oacute;n de activaci&oacute;n de las   neuronas. En este caso, la entrada neta   a la <img src="img/revistas/dyna/v81n184/v81n184a01eq126.gif">-&eacute;sima neurona de la capa   oculta:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq128.gif"></p>     <p>es un modelo autorregresivo de orden <img src="img/revistas/dyna/v81n184/v81n184a01eq100.gif">. As&iacute;, un MLP puede definirse como la   combinaci&oacute;n no lineal de tantos modelos autorregresivos como neuronas tenga la   capa oculta. N&oacute;tese, que un modelo autorregresivo es la combinaci&oacute;n lineal de   todos los rezagos considerados en el modelo. La ecuaci&oacute;n equivalente de MARS es claramente diferente; v&eacute;ase la   ecuaci&oacute;n de la <a href="#tab05">Tabla 5</a> para la serie INTERNET.</p>     <p align="center"><a name="tab05"></a><img src="img/revistas/dyna/v81n184/v81n184a01tab05.gif"></p>     <p>Una   explicaci&oacute;n sobre el desempe&ntilde;o de MARS se basa en la forma a que se llega a   dicha ecuaci&oacute;n. Cuando no hay variables   explicativas (rezagos en el caso de series de tiempo), MARS se reduce a una constante puesto que no   hay regiones definidas:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq130.gif"></p>     ]]></body>
<body><![CDATA[<p>Para   que una variable explicativa sea incorporada al modelo, ella debe ser   seleccionada durante el particionamiento recursivo, de manera que debe entrar   en la forma del t&eacute;rmino:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq132.gif"></p>     <p>el cual hace parte de una funci&oacute;n base <img src="img/revistas/dyna/v81n184/v81n184a01eq134.gif">. As&iacute;, el algoritmo de especificaci&oacute;n no   permite que se considere la variable explicativa, sin que su dominio sea divido   un t&eacute;rmino. Pareciera entonces, que MARS   sufre de dificultades para aproximar modelos autorregresivos. </p>     <p>Por otra parte, una SVM representa la din&aacute;mica de una serie de tiempo   como:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq136.gif"></p>     <p>donde: <img src="img/revistas/dyna/v81n184/v81n184a01eq180.gif"> es una constante, <img src="img/revistas/dyna/v81n184/v81n184a01eq182.gif"> son los factores de ponderaci&oacute;n de la funci&oacute;n   de n&uacute;cleo <img src="img/revistas/dyna/v81n184/v81n184a01eq184.gif">, definida   como:</p>     <p><img src="img/revistas/dyna/v81n184/v81n184a01eq186.gif"></p>     <p>En la ecuaci&oacute;n anterior <img src="img/revistas/dyna/v81n184/v81n184a01eq188.gif">, mientras   que <img src="img/revistas/dyna/v81n184/v81n184a01eq190.gif"> representa un subconjunto de los regresores de   la muestra de entrenamiento; v&eacute;ase &#91;8&#93;. En este caso, el modelo matem&aacute;tico que representa un SVM tambi&eacute;n difiere   tanto de MARS como de los MLP. En este   sentido, no puede considerarse como la transformaci&oacute;n no lineal de un modelo   autorregresivo, lo que explica, al menos en parte, su bajo desempe&ntilde;o en el   pron&oacute;stico. </p>     <br> <b>5 Conclusiones </b>     <p>Uno de los principales problemas en el pron&oacute;stico de series de tiempo   usando redes neuronales artificiales, es que su proceso de especificaci&oacute;n est&aacute;   basado primordialmente en criterios heur&iacute;sticos y juicio experto. Esto hace el proceso subjetivo quitando, en   alguna medida, credibilidad a los resultados obtenidos. En este contexto, el uso de modelos   alternativos a las redes neuronales artificiales que se basen en criterios   objetivos y bien estructurados gana mucha importancia. </p>     ]]></body>
<body><![CDATA[<p>MARS es   un modelo no param&eacute;trico y no lineal de regresi&oacute;n cuya especificaci&oacute;n est&aacute;   basada en criterios estad&iacute;sticos bien establecidos que permiten seleccionar los   regresores relevantes y la complejidad &oacute;ptima del modelo, y cuyos par&aacute;metros   &oacute;ptimos pueden ser calculados r&aacute;pidamente. </p>     <p>En este   trabajo se explora la capacidad de MARS en el pron&oacute;stico de cuatro series de   tiempo no lineales, que ya han sido utilizadas en la literatura para la   comparaci&oacute;n de modelos estad&iacute;sticos y redes neuronales artificiales. </p>     <p>El   desempe&ntilde;o de MARS para su ajuste a la muestra de calibraci&oacute;n, as&iacute; como de su   precisi&oacute;n en el pron&oacute;stico, fue pobre en comparaci&oacute;n con los dem&aacute;s modelos   considerados (modelos ARIMA, perceptrones multicapa, m&aacute;quinas de vectores de   soporte y DAN2). Posiblemente, la raz&oacute;n de este comportamiento est&aacute; relacionada   con el algoritmo de especificaci&oacute;n del modelo. Es as&iacute; como MARS selecciona s&oacute;lo un subconjunto de los retardos   utilizados en otros estudios, y, consecuentemente, pierde poder explicativo.   Adicionalmente, la estructura matem&aacute;tica del modelo final obtenido usando el   algoritmo empleado por MARS difiere de la obtenida utilizando los modelos ARIMA   y varios tipos de redes neuronales   artificiales; consecuentemente, este aspecto tambi&eacute;n impacta el desempe&ntilde;o del   modelo.</p>     <p>Como   trabajo futuro, se plantea la posibilidad de adicionar una estructura autorregresiva   lineal en la que se consideren todos los rezagos de la serie, m&aacute;s la sumatoria   de las funciones base. Otra posibilidad   consiste en considerar una estructura m&aacute;s compleja para los factores con que se   construyen las funciones base, tal que se use una combinaci&oacute;n de regresores, en   vez de usar solamente una variable explicativa. </p>      <p><font size="3" face="Verdana"><b>Referencias </b></font></p>      <!-- ref --><p><b>&#91;1&#93;</b> Kasabov. N. Foundations of Neural Networks, Fuzzy Systems, and Knowledge Engineering. Massachusetts Institute of Technology. 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000118&pid=S0012-7353201400020000100001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;2&#93;</b> Tong, H., Non-linear time series a dynamical system approach. Claredon Press Oxford. 1990.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000120&pid=S0012-7353201400020000100002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;3&#93;</b> Zhang, G., Patuwo, E.B. and Hu, M.Y., Forecasting with artificial neural networks: the state of the art. International Journal of Forecasting, 14 (1), pp. 35-62, 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000122&pid=S0012-7353201400020000100003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;4&#93;</b> Faraway, J. and Chatfield, C., Time series forecasting with neural networks: A comparative study using the Airline data. Applied Statistics, 47 (2), pp. 231-250, 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000124&pid=S0012-7353201400020000100004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;5&#93;</b> Ghiassi, M., Saidane, H. and Zimbra, D.K., A dynamic artificial neural network model for forecasting time series events. International Journal of Forecasting, 21 (2), pp. 341-362, 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000126&pid=S0012-7353201400020000100005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;6&#93;</b> Vel&aacute;squez, J.D., Pron&oacute;stico de la Serie de Mackey-Glass usando modelos de Regresi&oacute;n no Lineal. Dyna: 71 (142), pp. 85-95, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000128&pid=S0012-7353201400020000100006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;7&#93;</b> Zhang, G., Time Series forecasting using a hybrid   ARIMA and neural network model. Neurocomputing: 50, pp. 159-175, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000130&pid=S0012-7353201400020000100007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p><b>&#91;8&#93;</b> Vel&aacute;squez, J.D., Olaya, Y. y Franco, C.J., Predicci&oacute;n de series temporales usando m&aacute;quinas de vectores de soporte. Ingeniare, 18 (1), pp. 64-75, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000132&pid=S0012-7353201400020000100008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p><b>&#91;9&#93;</b> Cybenko, G., Approximation by superpositions of a sigmoidal function. Mathematics of Control: Signals and Systems, 2, pp. 202-314, 1989.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000134&pid=S0012-7353201400020000100009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;10&#93;</b> Hornik, K., Stinchcombe, M. and White, H., Multilayer feedforward networks are universal approximators. Neural Networks, 2, pp. 359-366, 1989.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000136&pid=S0012-7353201400020000100010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;11&#93;</b> Funahashi, K., On the approximate realization of continuous mappings by neural networks. Neural Networks: 2, pp. 183-192, 1989.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000138&pid=S0012-7353201400020000100011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;12&#93;</b> Masters, T., Practical Neural Network Recipes in C ++. Academic Press, New York, 1993.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000140&pid=S0012-7353201400020000100012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;13&#93;</b> Masters, T., Neural, Novel and Hybrid Algorithms for Time Series Prediction. John Wiley and Sons, Inc. First Edn. 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000142&pid=S0012-7353201400020000100013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;14&#93;</b> Kaastra, I. and Boyd, M., Designing a neural network for forecasting financial and economic series. Neurocomputing, 10, pp. 215-236, 1996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000144&pid=S0012-7353201400020000100014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;15&#93;</b> Anders, U. and Korn, O., Model selection in neural networks. Neural Networks, 12, pp. 309-323, 1999.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000146&pid=S0012-7353201400020000100015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;16&#93;</b> Vapnik, V.N., The Nature of Statistical Learning Theory. Springer, N.Y. 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000148&pid=S0012-7353201400020000100016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;17&#93;</b> Vapnik, V.N., Golowich, S.E. and Smola, A.J., Support vector method for function approximation, regression estimation, and signal processing. Advances in Neural Information Processing Systems, 9, pp. 281-287, 1996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000150&pid=S0012-7353201400020000100017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;18&#93;</b> Vel&aacute;squez, J.D., Franco, C.J. y Olaya, Y., Predicci&oacute;n de los precios promedios mensuales de contratos despachados en el mercado mayorista de electricidad en Colombia usando m&aacute;quinas de vectores de soporte. Cuadernos de Administraci&oacute;n, 23 (40), pp. 321-337, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000152&pid=S0012-7353201400020000100018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;19&#93;</b> Friedman, J.H., Multivariate adaptive regression splines (with discussion). Annals of Statistics, 19, pp. 1-141, 1991.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000154&pid=S0012-7353201400020000100019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;20&#93;</b> Friedman, J.H. Fast MARS. Dept. of Statistics, Stanford University Technical Report. 1993.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000156&pid=S0012-7353201400020000100020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;21&#93;</b> Friedman, J.H. and Roosen, C.B., An introduction to multivariate adaptive regression splines. Statistical Methods in Medical Research, 4(3), pp. 197-217, 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000158&pid=S0012-7353201400020000100021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;22&#93;</b> Chou, S.M., Lee, T.S. and Shao, Y.E., Mining the breast cancer pattern using artificial neural networks and multivariate adaptive regression splines. Expert Systems with Applications, 27 (1), pp. 133-142, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000160&pid=S0012-7353201400020000100022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;23&#93;</b> De Veaux, R.D., Psichogios, D.C. and Ungar, L.H., A comparison of two nonparametric estimation schemes: MARS and neural networks. Computers & Chemical Engineering, 17 (8), pp. 819-837, 1993.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000162&pid=S0012-7353201400020000100023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;24&#93;</b> Tian-Shyug, L., Chih-Chou, C., Yu-Chao, C. and Chi-Jie, L., Mining the customer credit using classification and regression tree and multivariate adaptive regression splines. Computational Statistics & Data Analysis, 50 (4), pp. 1113-1130, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000164&pid=S0012-7353201400020000100024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;25&#93;</b> Deichmann, J., Eshghi, A., Haughton, D., Sayek, S. and Teebagy, N., Application of multiple adaptive regression splines (MARS) in direct response modeling. Journal of Interactive Marketing, 16 (4), pp. 15-27, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000166&pid=S0012-7353201400020000100025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;26&#93;</b> Lewis, P.A.W. and Stevens, J.G., Nonlinear Modeling of Time Series Using Multivariate Adaptive Regression Splines (MARS). Journal of the American Statistical Association, 86 (416), pp. 864-877, 1991.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000168&pid=S0012-7353201400020000100026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;27&#93;</b> Tong, H., Threshold models in non-linear time series analysis. Heidelberg: Sprenger-Verlag. 1983.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000170&pid=S0012-7353201400020000100027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;28&#93;</b> De Gooijer, J.G., Ray, B.K. and Kr&auml;ger, H., Forecasting exchange rates using TSMARS. Journal of International Money and Finance, 17 (3), pp. 513-534, 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000172&pid=S0012-7353201400020000100028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><b>&#91;29&#93;</b> Coulibaly, P. and Baldwin, C.K., Nonstationary hydrological time series forecasting using nonlinear dynamic methods. Journal of Hydrology, 307 (1-4), pp. 164-174, 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000173&pid=S0012-7353201400020000100029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;</b><b>30</b><b>&#93;</b> Heather, M.A. and Ramsey, J.B. U.S. and Canadian industrial production indices as coupled   oscillators. Journal   of Economic Dynamics and Control, 26 (1), pp. 33-67,2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000175&pid=S0012-7353201400020000100030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref -->&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000176&pid=S0012-7353201400020000100031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p><b>&#91;32&#93;</b> Herrera, M., Torgo, L., Izquierdo, J., P&eacute;rez-Garc&iacute;a, R., Predictive models for forecasting hourly urban water demand. Journal of Hydrology, 387 (1-2), pp. 141-150, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000177&pid=S0012-7353201400020000100032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;33&#93;</b> Fidalgo, J.N., Matos, M.A., Forecasting Portugal global load with artificial neural networks. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 4669 LNCS (PART 2), pp. 728-737, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000179&pid=S0012-7353201400020000100033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p><b>&#91;34&#93;</b> Coulibaly, P., Baldwin, C.K., Nonstationary hydrological time series forecasting using nonlinear dynamic methods. Journal of Hydrology, 307 (1-4), pp. 164-174 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000181&pid=S0012-7353201400020000100034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p><b>&#91;</b><b>35&#93;</b> Makridakis, S.G., Wheelwright, S.C. and  Hyndman, R.J., Forecasting: Methods and applications. 3rd edition. New York.  John Wiley &amp; Sons, 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000183&pid=S0012-7353201400020000100035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <p><b>J. D.   Vel&aacute;squez-Henao,</b> received the Bs. Eng in Civil Engineering in   1994, the MS degree in Systems Engineering in 1997, and the PhD degree in   Energy Systems in 2009, all of them from the Universidad Nacional de Colombia.   Medellin, Colombia. From 1994 to 1999, he worked for electricity utilities and   consulting companies within the power sector and since 2000 for the Universidad   Nacional de Colombia. Currently, he is a Full Professor in the Computing and   Decision Sciences Department, Facultad de Minas, Universidad Nacional de   Colombia. His research interests include: simulation, modeling and forecasting   in energy markets; nonlinear time-series analysis and forecasting using   statistical and computational intelligence techniques; and optimization using   metaheuristics. <a href="http://orcid.org/0000-0003-3043-3037" target="_blank">http://orcid.org/0000-0003-3043-3037</a></p>     <p><b>Carlos J.   Franco</b> is a Full Professor in the Department of Computer and Decision Sciences   at the National University of Colombia in the Medellin campus. Carlos is   professor in subjects such as complex systems, system modeling and energy   markets. His research area is on energy systems analysis, including policies   evaluation and strategies formulation. His recent work includes low carbon   economies, demand response, electric markets integration and bio-fuels, among   others. He has a degree in Civil Engineering, a Master Degree in Water   Resources Management, and a PhD in Engineering, all from the National   University of Colombia.</p> </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kasabov]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
</person-group>
<collab>Foundations of Neural Networks</collab>
<source><![CDATA[Fuzzy Systems, and Knowledge Engineering]]></source>
<year>1998</year>
<publisher-name><![CDATA[Massachusetts Institute of Technology]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tong]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<source><![CDATA[Non-linear time series a dynamical system approach]]></source>
<year>1990</year>
<publisher-name><![CDATA[Claredon Press Oxford]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Patuwo]]></surname>
<given-names><![CDATA[E.B.]]></given-names>
</name>
<name>
<surname><![CDATA[Hu]]></surname>
<given-names><![CDATA[M.Y.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Forecasting with artificial neural networks: the state of the art]]></article-title>
<source><![CDATA[International Journal of Forecasting]]></source>
<year>1998</year>
<volume>14</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>35-62</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Faraway]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Chatfield]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Time series forecasting with neural networks: A comparative study using the Airline data]]></article-title>
<source><![CDATA[Applied Statistics]]></source>
<year>1998</year>
<volume>47</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>231-250</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ghiassi]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Saidane]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Zimbra]]></surname>
<given-names><![CDATA[D.K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A dynamic artificial neural network model for forecasting time series events]]></article-title>
<source><![CDATA[International Journal of Forecasting]]></source>
<year>2005</year>
<volume>21</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>341-362</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J.D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Pronóstico de la Serie de Mackey-Glass usando modelos de Regresión no Lineal]]></article-title>
<source><![CDATA[Dyna]]></source>
<year>2004</year>
<volume>71</volume>
<numero>142</numero>
<issue>142</issue>
<page-range>85-95</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Time Series forecasting using a hybrid ARIMA and neural network model]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>2003</year>
<volume>50</volume>
<page-range>159-175</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J.D.]]></given-names>
</name>
<name>
<surname><![CDATA[Olaya]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[Franco]]></surname>
<given-names><![CDATA[C.J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Predicción de series temporales usando máquinas de vectores de soporte]]></article-title>
<source><![CDATA[Ingeniare]]></source>
<year>2010</year>
<volume>18</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>64-75</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cybenko]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Approximation by superpositions of a sigmoidal function]]></article-title>
<source><![CDATA[Mathematics of Control: Signals and Systems]]></source>
<year>1989</year>
<volume>2</volume>
<page-range>202-314</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hornik]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Stinchcombe]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[White]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multilayer feedforward networks are universal approximators]]></article-title>
<source><![CDATA[Neural Networks]]></source>
<year>1989</year>
<volume>2</volume>
<page-range>359-366</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Funahashi]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the approximate realization of continuous mappings by neural networks]]></article-title>
<source><![CDATA[Neural Networks]]></source>
<year>1989</year>
<volume>2</volume>
<page-range>183-192</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Masters]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Practical Neural Network Recipes in C ++]]></source>
<year>1993</year>
<publisher-loc><![CDATA[^eNew York New York]]></publisher-loc>
<publisher-name><![CDATA[Academic Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Masters]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural, Novel and Hybrid Algorithms for Time Series Prediction]]></source>
<year>1995</year>
<edition>First</edition>
<publisher-name><![CDATA[John Wiley and Sons, Inc.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kaastra]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Boyd]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Designing a neural network for forecasting financial and economic series]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>1996</year>
<volume>10</volume>
<page-range>215-236</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Anders]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
<name>
<surname><![CDATA[Korn]]></surname>
<given-names><![CDATA[O.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Model selection in neural networks]]></article-title>
<source><![CDATA[Neural Networks]]></source>
<year>1999</year>
<volume>12</volume>
<page-range>309-323</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vapnik]]></surname>
<given-names><![CDATA[V.N.]]></given-names>
</name>
</person-group>
<source><![CDATA[The Nature of Statistical Learning Theory]]></source>
<year>1995</year>
<publisher-loc><![CDATA[^eN.Y. N.Y.]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vapnik]]></surname>
<given-names><![CDATA[V.N.]]></given-names>
</name>
<name>
<surname><![CDATA[Golowich]]></surname>
<given-names><![CDATA[S.E.]]></given-names>
</name>
<name>
<surname><![CDATA[Smola]]></surname>
<given-names><![CDATA[A.J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Support vector method for function approximation, regression estimation, and signal processing]]></article-title>
<source><![CDATA[Advances in Neural Information Processing Systems]]></source>
<year>1996</year>
<volume>9</volume>
<page-range>281-287</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J.D.]]></given-names>
</name>
<name>
<surname><![CDATA[Franco]]></surname>
<given-names><![CDATA[C.J.]]></given-names>
</name>
<name>
<surname><![CDATA[Olaya]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Predicción de los precios promedios mensuales de contratos despachados en el mercado mayorista de electricidad en Colombia usando máquinas de vectores de soporte]]></article-title>
<source><![CDATA[Cuadernos de Administración]]></source>
<year>2010</year>
<volume>23</volume>
<numero>40</numero>
<issue>40</issue>
<page-range>321-337</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Friedman]]></surname>
<given-names><![CDATA[J.H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multivariate adaptive regression splines (with discussion)]]></article-title>
<source><![CDATA[Annals of Statistics]]></source>
<year>1991</year>
<volume>19</volume>
<page-range>1-141</page-range></nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Friedman]]></surname>
<given-names><![CDATA[J.H.]]></given-names>
</name>
</person-group>
<collab>Fast MARS. Dept. of Statistics</collab>
<source><![CDATA[]]></source>
<year>1993</year>
<publisher-name><![CDATA[Stanford University Technical Report]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Friedman]]></surname>
<given-names><![CDATA[J.H.]]></given-names>
</name>
<name>
<surname><![CDATA[Roosen]]></surname>
<given-names><![CDATA[C.B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An introduction to multivariate adaptive regression splines]]></article-title>
<source><![CDATA[Statistical Methods in Medical Research]]></source>
<year>1995</year>
<volume>4</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>197-217</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chou]]></surname>
<given-names><![CDATA[S.M.]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[T.S.]]></given-names>
</name>
<name>
<surname><![CDATA[Shao]]></surname>
<given-names><![CDATA[Y.E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Mining the breast cancer pattern using artificial neural networks and multivariate adaptive regression splines]]></article-title>
<source><![CDATA[Expert Systems with Applications]]></source>
<year>2004</year>
<volume>27</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>133-142</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[De Veaux]]></surname>
<given-names><![CDATA[R.D.]]></given-names>
</name>
<name>
<surname><![CDATA[Psichogios]]></surname>
<given-names><![CDATA[D.C.]]></given-names>
</name>
<name>
<surname><![CDATA[Ungar]]></surname>
<given-names><![CDATA[L.H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison of two nonparametric estimation schemes: MARS and neural networks]]></article-title>
<source><![CDATA[Computers & Chemical Engineering]]></source>
<year>1993</year>
<volume>17</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>819-837</page-range></nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tian-Shyug]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Chih-Chou]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Yu-Chao]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Chi-Jie]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Mining the customer credit using classification and regression tree and multivariate adaptive regression splines]]></article-title>
<source><![CDATA[Computational Statistics & Data Analysis]]></source>
<year>2006</year>
<volume>50</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>1113-1130</page-range></nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Deichmann]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Eshghi]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Haughton]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Sayek]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Teebagy]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of multiple adaptive regression splines (MARS) in direct response modeling]]></article-title>
<source><![CDATA[Journal of Interactive Marketing]]></source>
<year>2002</year>
<volume>16</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>15-27</page-range></nlm-citation>
</ref>
<ref id="B26">
<label>26</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lewis, P]]></surname>
<given-names><![CDATA[A.W]]></given-names>
</name>
<name>
<surname><![CDATA[Stevens]]></surname>
<given-names><![CDATA[J.G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nonlinear Modeling of Time Series Using Multivariate Adaptive Regression Splines (MARS)]]></article-title>
<source><![CDATA[Journal of the American Statistical Association]]></source>
<year>1991</year>
<volume>86</volume>
<numero>416</numero>
<issue>416</issue>
<page-range>864-877</page-range></nlm-citation>
</ref>
<ref id="B27">
<label>27</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tong]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Threshold models in non-linear time series analysis]]></source>
<year>1983</year>
<publisher-loc><![CDATA[Heidelberg ]]></publisher-loc>
<publisher-name><![CDATA[Sprenger-Verlag]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B28">
<label>28</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[De Gooijer]]></surname>
<given-names><![CDATA[J.G]]></given-names>
</name>
<name>
<surname><![CDATA[Ray]]></surname>
<given-names><![CDATA[B.K]]></given-names>
</name>
<name>
<surname><![CDATA[Kräger]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Forecasting exchange rates using TSMARS]]></article-title>
<source><![CDATA[Journal of International Money and Finance]]></source>
<year>1998</year>
<volume>17</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>513-534</page-range></nlm-citation>
</ref>
<ref id="B29">
<label>29</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Coulibaly]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Baldwin]]></surname>
<given-names><![CDATA[C.K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nonstationary hydrological time series forecasting using nonlinear dynamic methods]]></article-title>
<source><![CDATA[Journal of Hydrology]]></source>
<year>2005</year>
<volume>307</volume>
<numero>1-4</numero>
<issue>1-4</issue>
<page-range>164-174</page-range></nlm-citation>
</ref>
<ref id="B30">
<label>30</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Heather]]></surname>
<given-names><![CDATA[M.A.]]></given-names>
</name>
<name>
<surname><![CDATA[Ramsey]]></surname>
<given-names><![CDATA[J.B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[U.S. and Canadian industrial production indices as coupled oscillators]]></article-title>
<source><![CDATA[Journal of Economic Dynamics and Control]]></source>
<year>2002</year>
<volume>26</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>33-67</page-range></nlm-citation>
</ref>
<ref id="B31">
<label>31</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lu]]></surname>
<given-names><![CDATA[C.-J]]></given-names>
</name>
<name>
<surname><![CDATA[Chang]]></surname>
<given-names><![CDATA[C.-H]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[C.-Y]]></given-names>
</name>
<name>
<surname><![CDATA[Chiu]]></surname>
<given-names><![CDATA[C.-C]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[T.-S]]></given-names>
</name>
</person-group>
<source><![CDATA[Stock index prediction: A comparison of MARS, BPN and SVR in an emerging market]]></source>
<year>2009</year>
<conf-name><![CDATA[ IEEE International Conference on Industrial Engineering and Engineering Management, 5373010]]></conf-name>
<conf-date>2009</conf-date>
<conf-loc> </conf-loc>
<page-range>2343-2347</page-range></nlm-citation>
</ref>
<ref id="B32">
<label>32</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Torgo]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Izquierdo]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Pérez-García]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predictive models for forecasting hourly urban water demand]]></article-title>
<source><![CDATA[Journal of Hydrology]]></source>
<year>2010</year>
<volume>387</volume>
<numero>1-2</numero>
<issue>1-2</issue>
<page-range>141-150</page-range></nlm-citation>
</ref>
<ref id="B33">
<label>33</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fidalgo]]></surname>
<given-names><![CDATA[J.N]]></given-names>
</name>
<name>
<surname><![CDATA[Matos]]></surname>
<given-names><![CDATA[M.A]]></given-names>
</name>
</person-group>
<source><![CDATA[Forecasting Portugal global load with artificial neural networks]]></source>
<year>2007</year>
<edition>2</edition>
<page-range>728-737</page-range></nlm-citation>
</ref>
<ref id="B34">
<label>34</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Coulibaly]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Baldwin]]></surname>
<given-names><![CDATA[C.K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nonstationary hydrological time series forecasting using nonlinear dynamic methods]]></article-title>
<source><![CDATA[Journal of Hydrology]]></source>
<year>2005</year>
<volume>307</volume>
<numero>1-4</numero>
<issue>1-4</issue>
<page-range>164-174</page-range></nlm-citation>
</ref>
<ref id="B35">
<label>35</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Makridakis]]></surname>
<given-names><![CDATA[S.G]]></given-names>
</name>
<name>
<surname><![CDATA[Wheelwright]]></surname>
<given-names><![CDATA[S.C]]></given-names>
</name>
<name>
<surname><![CDATA[Hyndman]]></surname>
<given-names><![CDATA[R.J]]></given-names>
</name>
</person-group>
<source><![CDATA[Forecasting: Methods and applications]]></source>
<year>1998</year>
<edition>3rd</edition>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
