<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0120-3592</journal-id>
<journal-title><![CDATA[Cuadernos de Administración]]></journal-title>
<abbrev-journal-title><![CDATA[Cuad. Adm.]]></abbrev-journal-title>
<issn>0120-3592</issn>
<publisher>
<publisher-name><![CDATA[Pontificia Universidad Javeriana]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0120-35922010000100014</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Predicción de los precios promedios mensuales de contratos despachados en el mercado mayorista de electricidad en Colombia usando máquinas de vectores de soporte]]></article-title>
<article-title xml:lang="en"><![CDATA[Forecasting average monthly prices for Colombian wholesale electricity market contracts]]></article-title>
<article-title xml:lang="pt"><![CDATA[Predição dos preços médios mensais de contratos despachados no mercado atacadista de eletricidade na Colômbia usando máquinas de vetores de suporte]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Velásquez H]]></surname>
<given-names><![CDATA[Juan David]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Franco C]]></surname>
<given-names><![CDATA[Carlos Jaime]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Olaya M]]></surname>
<given-names><![CDATA[Yris]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia Facultad de Minas Grupo de Investigación Mercados Energéticos]]></institution>
<addr-line><![CDATA[Medellín ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Nacional de Colombia Facultad de Minas Escuela de Sistemas]]></institution>
<addr-line><![CDATA[Medellín ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Nacional de Colombia Facultad de Minas Escuela de Sistemas]]></institution>
<addr-line><![CDATA[Medellín ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2010</year>
</pub-date>
<volume>23</volume>
<numero>40</numero>
<fpage>321</fpage>
<lpage>337</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0120-35922010000100014&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0120-35922010000100014&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0120-35922010000100014&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[La predicción de los precios de la electricidad en los mercados liberalizados y desregulados ha sido considerada una tarea difícil, debido a la cantidad y complejidad de factores que gobiernan los precios. En este artículo se pronostican los precios promedios mensuales de los contratos despachados en el mercado eléctrico de Colombia usando una novedosa red neuronal, conocida como máquina de vectores de soporte. Se comparan los pronósticos obtenidos con un perceptrón multicapa y un modelo ARIMA. Los resultados obtenidos muestran que la máquina de vectores de soporte captura de mejor forma la dinámica intrínseca de la serie de tiempo y es capaz de pronosticar con mayor precisión para un horizonte de 12 meses adelante.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Forecasting electricity prices in liberalized, deregulated markets has always been considered a difficult task, due to the number of factors that govern prices and to their complexity. This article predicts the average monthly prices for Colombian electricity market contracts by using a novel neural network known as the support vector machine. Forecasts obtained using a multilayer perceptron are compared to forecasts obtained using an ARIMA model. The results show that the support vector machine better captures the intrinsic dynamics of the time series and is able to make more precise forecasts considering a 12-month horizon.]]></p></abstract>
<abstract abstract-type="short" xml:lang="pt"><p><![CDATA[Apredição dos preços da eletricidade nos mercados liberalizados e desregulados tem sido considerada uma tarefa difícil, devido à quantidade e complexidade de fatores que governam os preços. Neste artigo prognosticam-se os preços médios mensais dos contratos despachados no mercado elétrico da Colômbia usando uma inovadora rede neural, conhecida como máquina de vetores de suporte. Comparam-se os prognósticos obtidos com um perceptron multicamada e um modelo ARIMA. Os resultados obtidos mostram que a máquina de vetores de suporte captura de melhor forma a dinâmica intrínseca da série de tempo e é capaz de prognosticar com maior precisão para um horizonte de 12 meses adiante.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[estudios comparativos]]></kwd>
<kwd lng="es"><![CDATA[series no lineales]]></kwd>
<kwd lng="es"><![CDATA[predicción]]></kwd>
<kwd lng="es"><![CDATA[precios de electricidad]]></kwd>
<kwd lng="es"><![CDATA[redes neuronales]]></kwd>
<kwd lng="en"><![CDATA[Comparative studies]]></kwd>
<kwd lng="en"><![CDATA[non-linear series]]></kwd>
<kwd lng="en"><![CDATA[prediction]]></kwd>
<kwd lng="en"><![CDATA[electricity prices]]></kwd>
<kwd lng="en"><![CDATA[neural networks]]></kwd>
<kwd lng="pt"><![CDATA[estudos comparativos]]></kwd>
<kwd lng="pt"><![CDATA[séries não lineares]]></kwd>
<kwd lng="pt"><![CDATA[predição]]></kwd>
<kwd lng="pt"><![CDATA[preços de eletricidade]]></kwd>
<kwd lng="pt"><![CDATA[redes neurais]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face="verdana" size="2"> <font size="4">      <center>   <b>Predicci&oacute;n de los precios promedios mensuales de contratos despachados en el mercado mayorista de electricidad en Colombia   usando m&aacute;quinas de vectores de soporte<sup>*</sup></b>  </center> </font>     <p>      <center>          <p>          <center>Juan David Vel&aacute;squez H.<sup>**</sup>Carlos Jaime Franco C.<sup>*** </sup>Yris    Olaya M.<sup>**** </sup></center>   </p> </center></p>     <p><sup>* </sup>Art&iacute;culo	   de investigaci&oacute;n cient&iacute;fica y tecnol&oacute;gica. Es producto	   de la investigaci&oacute;n realizada por los grupos de Mercados Energ&eacute;ticos	   y Computaci&oacute;n Aplicada en el Modelado y la Predicci&oacute;n de Variables	   Econ&oacute;micas en Mercados de Energ&iacute;a. Patrocinado por la Facultad	   de Minas, Universidad Nacional de Colombia, Medell&iacute;n, Colombia. El art&iacute;culo	   se recibi&oacute; el 24-09-2009 y se aprob&oacute; el 09-03-2010. </p>     <p><sup>**</sup> Doctor en Ingenier&iacute;a, &Aacute;rea de Sistemas Energ&eacute;ticos,    Universidad Nacional de Colombia, Medell&iacute;n, Colombia, 2009; Mag&iacute;ster    en Ingenier&iacute;a de Sistemas, Universidad Nacional de Colombia, Medell&iacute;n,    1997. Profesor asociado, Escuela de Sistemas, Facultad de Minas, Universidad    Nacional de Colombia. Director del grupo de investigaci&oacute;n Computaci&oacute;n    Aplicada. Miembro del grupo de investigaci&oacute;n Mercados Energ&eacute;ticos,    Facultad de Minas, Universidad Nacional de Colombia. Correo electr&oacute;nico:    <a href="mailto:jdvelasq@unal.edu.co">jdvelasq@unal.edu.co</a>. </p>     <p><sup>***</sup> Doctor en Ingenier&iacute;a, &Aacute;rea de Sistemas Energ&eacute;ticos,    Universidad Nacional de Colombia, Medell&iacute;n, Colombia, 2002; Mag&iacute;ster    en Aprovechamiento de Recursos Hidr&aacute;ulicos, Universidad Nacional de Colombia,    Medell&iacute;n, 1996. Profesor asociado, Escuela de Sistemas, Facultad de Minas,    Universidad Nacional de Colombia. Miembro de los grupos de investigaci&oacute;n    Mercados Energ&eacute;ticos y de Computaci&oacute;n Aplicada, Facultad de Minas,    Universidad Nacional de Colombia. Correo electr&oacute;nico: <a href="mailto:cjfranco@unal.edu.co">cjfranco@unal.edu.co</a>.  </p>     <p><sup>****</sup> Doctora en Econom&iacute;a de los Recursos Minerales, Colorado    School of Mines, Colorado, Estados Unidos, 2006; Mag&iacute;ster en Ingenier&iacute;a    de Sistemas, Universidad Nacional de Colombia, Medell&iacute;n, Colombia, 1999.    Profesora asociada, Escuela de Sistemas, Facultad de Minas, Universidad Nacional    de Colombia. Directora del grupo de Mercados Energ&eacute;ticos. Miembro del    grupo de Computaci&oacute;n Aplicada, Facultad de Minas, Universidad Nacional    de Colombia. Correo electr&oacute;nico: <a href="mailto:yolayam@unal.edu.co">yolayam@unal.edu.co</a>.  </p>     ]]></body>
<body><![CDATA[<p><b>RESUMEN</b></p>     <p>La predicci&oacute;n de los precios de la electricidad en los    mercados liberalizados y desregulados ha sido considerada una tarea dif&iacute;cil,    debido a la cantidad y complejidad de factores que gobiernan los precios. En    este art&iacute;culo se pronostican los precios promedios mensuales de los contratos    despachados en el mercado el&eacute;ctrico de Colombia usando una novedosa red    neuronal, conocida como m&aacute;quina de vectores de soporte. Se comparan los    pron&oacute;sticos obtenidos con un perceptr&oacute;n multicapa y un modelo    ARIMA. Los resultados obtenidos muestran que la m&aacute;quina de vectores de    soporte captura de mejor forma la din&aacute;mica intr&iacute;nseca de la serie    de tiempo y es capaz de pronosticar con mayor precisi&oacute;n para un horizonte    de 12 meses adelante. </p>        <p><b>Palabras clave:    </b>estudios comparativos, series no lineales, predicci&oacute;n, precios de    electricidad,    redes neuronales.   </p>    <font size="4">      <center>   <b>Forecasting average monthly prices for Colombian wholesale electricity market	   contracts </b>  </center> </font>     <p><b>ABSTRACT</b></p>     <p>Forecasting electricity prices in liberalized, deregulated markets    has always been considered a difficult task, due to the number of factors that    govern prices and to their complexity. This article predicts the average monthly    prices for Colombian electricity market contracts by using a novel neural network    known as the support vector machine. Forecasts obtained using a multilayer perceptron    are compared to forecasts obtained using an ARIMA model. The results show that    the support vector machine better captures the intrinsic dynamics of the time    series and is able to make more precise forecasts considering a 12-month horizon.    </p>     <p><b>Key words:    </b>Comparative studies, non-linear series, prediction, electricity prices,    neural    networks.   </p> <font size="4">      <center>   <b>Predi&ccedil;&atilde;o dos pre&ccedil;os m&eacute;dios mensais de contratos despachados	   no mercado atacadista de eletricidade na Col&ocirc;mbia usando m&aacute;quinas	   de vetores de suporte </b>  </center> </font>      <p><b>RESUMO</b></p>     <p>Apredi&ccedil;&atilde;o dos pre&ccedil;os da eletricidade nos    mercados liberalizados e desregulados tem sido considerada uma tarefa dif&iacute;cil,    devido &agrave; quantidade e complexidade de fatores que governam os pre&ccedil;os.    Neste artigo prognosticam-se os pre&ccedil;os m&eacute;dios mensais dos contratos    despachados no mercado el&eacute;trico da Col&ocirc;mbia usando uma inovadora    rede neural, conhecida como m&aacute;quina de vetores de suporte. Comparam-se    os progn&oacute;sticos obtidos com um perceptron multicamada e um modelo ARIMA.    Os resultados obtidos mostram que a m&aacute;quina de vetores de suporte captura    de melhor forma a din&acirc;mica intr&iacute;nseca da s&eacute;rie de tempo    e &eacute; capaz de prognosticar com maior precis&atilde;o para um horizonte    de 12 meses adiante. </p>     ]]></body>
<body><![CDATA[<p><b>Palavras chave:    </b>estudos comparativos, s&eacute;ries n&atilde;o lineares, predi&ccedil;&atilde;o,    pre&ccedil;os de eletricidade,    redes neurais.   </p>     <p><b>Introducci&oacute;n </b></p>     <p>Con la entrada en vigencia de la	   Ley de Servicios P&uacute;blicos Domiciliarios (Ley 142) y la Ley El&eacute;ctrica	   (Ley 143), se dio lugar a la reestructuraci&oacute;n del sector el&eacute;ctrico	   colombiano. Los objetivos primordiales de esta reforma buscaban corregir los    problemas que se presentaron en a&ntilde;os anteriores, en especial en lo referente    a los racionamientos ocurridos entre marzo de 1991 y mayo de 1992, que llevaron    a la crisis al sector el&eacute;ctrico. As&iacute;, el nuevo esquema de mercado    promueve la libre competencia como el mecanismo primordial para forzar la eficiencia    del mercado y garantizar la expansi&oacute;n requerida por el sistema. Bajo    el nuevo esquema, la comercializaci&oacute;n de electricidad en el sector se    realiza a trav&eacute;s de dos mecanismos fundamentales: los contratos bilaterales    entre agentes y la subasta en la Bolsa de Energ&iacute;a, en la cual los distintos    agentes reportan la cantidad de energ&iacute;a disponible y su respectivo precio    para la venta, de tal forma que la Bolsa fija el precio de venta para los compradores    diariamente. </p>     <p>La predicci&oacute;n de precios de bolsa es un problema especialmente dif&iacute;cil	   (Vel&aacute;squez, Dyner y Souza, 2007), debido a la cantidad y complejidad	   de los factores que influyen en su determinaci&oacute;n, como las caracter&iacute;sticas	   f&iacute;sicas del sistema de generaci&oacute;n, la influencia de las decisiones	   de negocio de los distintos agentes y la regulaci&oacute;n. En general, los    precios de bolsa manifiestan dichas complejidades a trav&eacute;s de sus caracter&iacute;sticas,    que incluyen: pronunciados ciclos estacionales de periodicidad diaria, semanal,    mensual y dem&aacute;s; volatilidad variable en el tiempo y regiones de volatilidad    similar; fuertes variaciones de a&ntilde;o a a&ntilde;o y de estaci&oacute;n    a estaci&oacute;n, estructura din&aacute;mica de largo plazo, efectos de apalancamiento    y respuesta asim&eacute;trica de la volatilidad a cambios positivos y negativos,    valores extremos, correlaciones de alto orden, cambios estructurales, tendencias    locales y reversi&oacute;n en la media, diferentes determinantes para los riesgos    de corto, mediano y largo plazo, dependencia de las condiciones de las unidades    de generaci&oacute;n en el corto plazo y de las inversiones en capacidad y crecimiento    de la demanda en el largo plazo. </p>     <p>Ante la complejidad de la din&aacute;mica de los precios de Bolsa, la dificultad	   de su pron&oacute;stico y su riesgo impl&iacute;cito, los contratos son un mecanismo    de mitigaci&oacute;n de riesgo que facilita la operaci&oacute;n comercial de    los diferentes agentes del mercado. Por una parte, evitan que el comprador se    vea sujeto a la variabilidad de los precios en la Bolsa y a precios excepcionalmente    altos, que ocurren ante la presencia de eventos hidrol&oacute;gicos extremos    secos; por otra parte, estabilizan los ingresos del vendedor y lo protegen de    precios excepcionalmente bajos, que ocurren cuando se presentan eventos hidrol&oacute;gicos    extremadamente h&uacute;medos. Existen dos tipos de contratos representativos    en el mercado el&eacute;ctrico colombiano: pague-lo-contratado y pague-lo-demandado.  </p>     <p>El tipo pague-lo-contratado especifica que el comprador se compromete a pagar	   toda la electricidad contratada, independientemente de si ella fue consumida	   o no; si se contrat&oacute; una mayor cantidad de electricidad a la consumida,	   el excedente es vendido por el comprador a la Bolsa de Energ&iacute;a. En el    tipo pague-lo-demandado, el comprador s&oacute;lo paga la energ&iacute;a efectivamente    consumida; usualmente, se fija un l&iacute;mite superior a la energ&iacute;a    que puede ser consumida por el comprador. </p>     <p>La predicci&oacute;n de los precios de la electricidad en el mercado, tanto    en Bolsa como en contratos, se constituye en un insumo fundamental que requieren	   los diferentes agentes para establecer sus pol&iacute;ticas de comercializaci&oacute;n,	   donde se especifican las cantidades de energ&iacute;a vendida a trav&eacute;s	   de cada uno de los mecanismos de negociaci&oacute;n, de acuerdo con las expectativas    de precios. Consecuentemente, se requiere desarrollar modelos de predicci&oacute;n    para dichas series. Para el mercado colombiano, esta serie corresponde a los  precios promedios mensuales de los contratos despachados en la Bolsa de Energ&iacute;a.  </p>     <p>Su traza en el tiempo es presentada en el <a href="img/revistas/cadm/v23n40/a14g1.jpg" target="_blank">Gr&aacute;fico    1</a>. Se intuye de antemano que su predicci&oacute;n es una tarea dif&iacute;cil,    ya que hereda las complejidades propias del mercado el&eacute;ctrico. La presencia    de no linealidades en las series de precios de la electricidad ha motivado el    uso de t&eacute;cnicas no lineales para su predicci&oacute;n; en el caso lineal,    se parte de que el precio actual puede ser pronosticado a partir de los precios    pasados como una combinaci&oacute;n lineal de ellos:</p>     <p><img src="img/revistas/cadm/v23n40/a14e1.jpg"></p>     <p>Donde <i>y</i><sub><i>t</i></sub> es la serie de precios, <i>c</i> es una constante    y <i>e</i><sub><i>t</i></sub> es una variable aleatoria normal con media cero    y varianza constante desconocida. Existen dos formas de no linealidad: en la    primera se asume que la varianza de <i>e</i><sub><i>t</i></sub> cambia en el    tiempo, mientras que en la segunda la relaci&oacute;n existente entre el precio    actual <i>y</i><sub><i>t</i></sub> y sus valores pasados no sigue (1). Para    este &uacute;ltimo caso, al sustituir la sumatoria en (1) por otra forma funcional,    se pueden obtener diferentes clases de modelos no lineales, como los modelos    de transici&oacute;n brusca (Tong, 1978) o suave (Ter&auml;svirta, 1994; Ter&auml;svirta,    Lin y Granger, 1993), los modelos autorregresivos de coeficientes funcionales    (Chen y Tsay, 1993), diferentes tipos de redes neuronales artificiales y muchos    otros. Una revisi&oacute;n detallada es presentada por Franses y van Djck (2000).  </p>     ]]></body>
<body><![CDATA[<p>Las m&aacute;quinas de vectores de soporte (SVM, por su sigla en ingl&eacute;s)	   (Vapnik, 1995; Vapnik, Golowich y Smola, 1996) son un tipo de red neuronal artificial    desarrollada originalmente para solucionar problemas no lineales de clasificaci&oacute;n    (Belousov, Verzakov, y von Frese, 2002; Burges, 1998), pero que recientemente    ha sido aplicada a la predicci&oacute;n de series temporales (Mukherjee, Osuna,    y Girosi, 1997; Muller, Smola, Ratsch, Scholkopf, Kohlmorgen y Vapnik, 1997;    Osowski y Garanty, 2007; Tay y Cao, 2001; Thissen, van Brakel, de Weijer, Melssen    y Buydens, 2003). </p>     <p>Un resumen de los principales estudios seleccionados se presenta en el <a href="#Cuadro1">Cuadro 1</a>. Su &eacute;xito, se debe a que poseen una alta capacidad de generalizaci&oacute;n    (Scholkopf y Smola, 2002; Vapnik, 1998), que es funci&oacute;n directa de su    estructura y de la metodolog&iacute;a utilizada para estimar sus par&aacute;metros.    Las SVM presentan varias ventajas: primero, su especificaci&oacute;n se basa    en el principio de minimizaci&oacute;n del riesgo estructural, que equivale    a minimizar el l&iacute;mite superior del error de generalizaci&oacute;n del    modelo. As&iacute;, la estimaci&oacute;n de una SVM busca encontrar tanto la    estructura &oacute;ptima del modelo como los valores &oacute;ptimos de sus par&aacute;metros,    lo que permite una mayor capacidad de generalizaci&oacute;n. </p>     <p>        <center>     <img src="img/revistas/cadm/v23n40/a14c1.jpg"><a name="Cuadro1"></a>    </center> </p>     <p>La estimaci&oacute;n de los par&aacute;metros de otros modelos tradicionales,    como los perceptro-nes multicapa (MLP, por su sigla en ingl&eacute;s) (Zhang,    Patuwo y Hu, 1998), se basa en la aplicaci&oacute;n del principio de minimizaci&oacute;n    de riesgo emp&iacute;rico, que depende fundamentalmente del ajuste a los datos    hist&oacute;ricos, tomando la estructura del modelo como un par&aacute;metro    de entrada. Por lo tanto, dado que estos modelos son aproximadores universales    de funciones, es com&uacute;n que se presente el fen&oacute;meno de sobreajuste,    que consiste en que el MLP memoriza la informaci&oacute;n utilizada para la    estimaci&oacute;n de sus par&aacute;metros, pero los pron&oacute;sticos son    completamente lejanos de la realidad. M&aacute;s a&uacute;n, la especificaci&oacute;n    de los MLP se basa fundamentalmente en criterios heur&iacute;sticos y el juicio    experto del modelador (Masters, 1993 y 1995), de tal manera que dicho proceso    se basa en un conjunto de pasos cr&iacute;ticos que afectan el desempe&ntilde;o    final del modelo (Kaastra y Boyd, 1996), en t&eacute;rminos del ajuste a los    datos hist&oacute;ricos y su capacidad de generalizaci&oacute;n. Esto dificulta    enormemente la reconstrucci&oacute;n del proceso de especificaci&oacute;n y    selecci&oacute;n de esta clase de modelos. </p>     <p>La segunda ventaja de las SVM radica en que la estimaci&oacute;n de los par&aacute;metros	   de una SVM es equivalente a la soluci&oacute;n de un modelo de programaci&oacute;n	   cuadr&aacute;tica con restricciones lineales. Ello implica que la soluci&oacute;n	   &oacute;ptima es global y &uacute;nica, lo cual representa una clara ventaja	   sobre modelos, como los MLP, que se caracterizan por poseer m&uacute;ltiples	   puntos de m&iacute;nima local. No obstante, las SVM, al igual que otros tipos    de modelos no param&eacute;tricos de regresi&oacute;n no lineal, como los MLP,    sufren del problema del sobreajuste, lo que puede degradar ostensiblemente su    capacidad de generalizaci&oacute;n. </p>     <p>El objetivo principal de este art&iacute;culo es predecir los precios promedios	   mensuales despachados en la Bolsa de Energ&iacute;a del mercado el&eacute;ctrico	   colombiano usando SVM, y comparar los resultados obtenidos con el modelo autorregresivo    integrado de promedios m&oacute;viles (ARIMA) y los MLP, con el fin de determinar    el mejor modelo de predicci&oacute;n para la serie estudiada. La originalidad    e importancia de la investigaci&oacute;n propuesta est&aacute; basada en los    siguientes aspectos: </p>       <p>&bull; Mientras que existe una extensa experiencia en la predicci&oacute;n de precios	     de electricidad en mercados de corto plazo (v&eacute;ase el trabajo de Vel&aacute;squez,      Dyner y Souza, 2007), no existen referencias en la literatura sobre la predicci&oacute;n      de precios de contratos. En cuanto a este aspecto se da la primera contribuci&oacute;n      de este art&iacute;culo, ya que se pretende desarrollar varios modelos de      pron&oacute;stico para dicha serie.    </p>       <p>&bull; Existen pocas experiencias reportadas en la literatura que comparen el desempe&ntilde;o	     de las SVM con otros modelos al pronosticar series del mundo real. La serie      analizada en esta investigaci&oacute;n es particularmente dif&iacute;cil debido      a la complejidad y cantidad de sus determinantes, por lo que resulta especialmente      adecuada para este fin.    </p>       <p>&bull; Se contribuye a difundir el uso de las SVM para la predicci&oacute;n de series	     de precios en mercados de electricidad, y ello aumenta as&iacute; la cantidad	     de herramientas disponibles.    </p>     ]]></body>
<body><![CDATA[<p>En su orden, se describe la informaci&oacute;n y metodolog&iacute;a utilizadas	   (secci&oacute;n 1), los resultados obtenidos (secci&oacute;n 2) y las principales	   conclusiones obtenidas. </p>     <p><b>1. Informaci&oacute;n y metodolog&iacute;a </b></p>     <p><b>1.1 <i>Informaci&oacute;n utilizada </i></b></p>     <p>Los datos con que se elabor&oacute; este estudio corresponden	   al logaritmo natural de la serie de precios promedios mensuales de los contratos    despachados en la bolsa del mercado mayorista de electricidad en Colombia, expresada    en $/kWh, entre 1996:5 y 2008:6, los cuales est&aacute;n disponibles en el Sistema    Ne&oacute;n. La serie presenta (<a href="img/revistas/cadm/v23n40/a14g1.jpg" target="_blank">Gr&aacute;fico    1</a>) una tendencia creciente de    largo plazo desde 1996:5 hasta el primer semestre del 2003. Durante ese mismo    intervalo de tiempo se evidencia una componente c&iacute;clica de periodicidad    anual de amplitud variable, explicada, posiblemente, por el ciclo invierno-verano.    </p>     <p>La mayor amplitud de la componente peri&oacute;dica coincide con el fen&oacute;meno	   de El Ni&ntilde;o, ocurrido entre 1997 y 1998. Esta componente c&iacute;clica,	   aunque no con una amplitud tan marcada, permanece hasta principios del 2004.    Desde el 2003 se presenta una tendencia ligeramente descendente que finaliza    en alg&uacute;n momento del primer semestre del 2006. Se evidencia en este momento    del tiempo un cambio estructural en la serie, tanto en su tendencia como en    su componente c&iacute;clica: por una parte, se recuperan los niveles de crecimiento    que caracterizaron los a&ntilde;os 2000, 2001 y 2002; por la otra, se presenta    nuevamente un ciclo estacional de per&iacute;odo anual, cuyo nivel m&aacute;s    alto coincide con la estaci&oacute;n de verano. </p>     <p><b>1.2 <i>Metodolog&iacute;a empleada </i></b></p>     <p>Sea una serie de tiempo, <i>y</i><sub><i>t</i></sub>, con regresores <i>x</i>,    para la cual se poseen <i>D</i> ejemplos representativos. Una SVM permite aproximar    <i>y</i><sub><i>t</i></sub> a trav&eacute;s de la funci&oacute;n: </p>     <p><img src="img/revistas/cadm/v23n40/a14e2.jpg"></p>     <p>Donde <i>b</i> es una constante y <i>w</i><sub><i>d</i></sub> son los factores    de ponderaci&oacute;n de la funci&oacute;n de n&uacute;cleo <i>k</i>(&middot;,&middot;).    As&iacute;, una SVM es la combinaci&oacute;n lineal del mapeo de <i>x</i><sub><i>t</i></sub>	   en un espacio de caracter&iacute;sticas altamente no lineales, definido por    los puntos <i>x</i><sub><i>d</i></sub> y la funci&oacute;n de transformaci&oacute;n    no lineal <i>k</i>(&middot;,&middot;). </p>     <p>En (2), <i>k</i>(<i>x</i><sub><i>t</i></sub>,<i>x</i><sub><i>d</i></sub>) representa    una funci&oacute;n de n&uacute;cleo que permite llevar el punto <i>x</i> a un    espacio altamente dimensional parametrizado por los puntos <i>x</i><sub><i>d</i></sub>.	   Existen varias funciones que son t&iacute;picamente utilizadas como n&uacute;cleos    (Gunn, 1997; Tay y Cao, 2001; Thissen et al., 2003), pero las experiencias reportadas    indican que la funci&oacute;n gaussiana o RBF: </p>     ]]></body>
<body><![CDATA[<p><img src="img/revistas/cadm/v23n40/a14e3.jpg"></p>     <p>produce mejores resultados. El par&aacute;metro &sigma;<sup>2</sup> corresponde    a la varianza de la campana gaussiana y es dependiente del problema espec&iacute;fico.  </p>     <p>La estimaci&oacute;n de (2) se basa en minimizaci&oacute;n de la funci&oacute;n	   de riesgo regularizado, <i>R</i>(<i>C</i>,<i>&epsilon;</i>), definida como:  </p>     <p><img src="img/revistas/cadm/v23n40/a14e4.jpg"></p>     <p>Donde el primer sumando mide el error emp&iacute;rico entre el modelo y los    datos, mientras que el segundo corresponde a la componente de regularizaci&oacute;n	   y depende &uacute;nicamente de los pesos <i>w</i><sub><i>d</i></sub>. La constante    de regularizaci&oacute;n <i>C</i> permite variar la importancia de cada una    de las componentes; as&iacute;, valores muy altos de <i>C</i> enfatizan el ajuste    del modelo a los datos, sin que importe qu&eacute; tan grandes deban ser los    pesos <i>w</i><sub><i>d</i></sub> para conseguirlo. Sin embargo, se sabe que    el modelo pierde su capacidad de generalizaci&oacute;n de los datos a medida    que los pesos <i>w</i><sub><i>d</i></sub> aumentan en magnitud, ya que ellos    suelen causar una varianza excesiva en el modelo. Cuando <i>C</i> tiende a cero,    la magnitud de la funci&oacute;n <i>R</i>(<i>C</i>,<i>&epsilon;</i>) depende    &uacute;nicamente de <i>w</i><sub><i>d</i></sub>, sin importar el ajuste a los    datos, haciendo que los pesos <i>w</i><sub><i>d</i></sub> disminuyan tanto como    sea posible. <i>L</i><sub><i>&epsilon;</i></sub> es la funci&oacute;n de error    <i>&epsilon;</i>-insensible de Vapnik (1998) definida como: </p>     <p><img src="img/revistas/cadm/v23n40/a14e5.jpg"></p>     <p>Donde la constante <i>&epsilon;</i> representa la precisi&oacute;n deseada,    y es interpretada como el radio de un tubo dentro del cual el error se considera    cero. Este comportamiento es esquematizado en el <a href="img/revistas/cadm/v23n40/a14g1.jpg" target="_blank">Gr&aacute;fico    1</a>, donde los    puntos negros representan los datos disponibles, que est&aacute;n alejados a    una distancia mayor de <i>&epsilon;</i> unidades de la predicci&oacute;n del    modelo, y para los cuales el error se considera superior a cero. Los puntos    blancos representan los datos dentro del t&uacute;nel de tolerancia del modelo,    y para los cuales el error es cero. Mientras menor sea el valor dado a &epsilon;,    mayor es la precisi&oacute;n exigida al modelo, ya que se tendr&aacute; en cuenta    una mayor cantidad de puntos que contribuyen al error de ajuste del modelo.  </p>     <p>La soluci&oacute;n de (2) puede obtenerse mediante la teor&iacute;a de multiplicadores	   de Lagrange, y es f&aacute;cilmente demostrable que el problema original es    equivalente a resolver el problema de programaci&oacute;n cuadr&aacute;tica	   (Platt, 1998; Vapnik, 1998): </p>     <p><img src="img/revistas/cadm/v23n40/a14e6.jpg"></p>     <p>Con restricciones lineales: </p>     ]]></body>
<body><![CDATA[<p><img src="img/revistas/cadm/v23n40/a14e7.jpg"></p>     <p><img src="img/revistas/cadm/v23n40/a14e8.jpg"></p>     <p>Donde <i>a</i><sub><i>d</i></sub> y <i>a</i><sub><i>d </i></sub><sup>* </sup>son    los multiplicadores de Lagrange asociados a los datos, los cuales cumplen con    las restricciones <i>a</i><sub><i>d</i></sub> &times; <i>a</i><sub><i>d </i></sub><sup>*</sup>	   = 0, a<sub><i>d</i></sub> &ge; 0 y <i>a</i><sub><i>d </i></sub><sup>*</sup>	   &ge; 0; <i>z</i> = [<i>a</i><sub><i>d</i></sub>, <i>a</i><sub><i>d </i></sub><sup>*</sup>]&prime;;	   <i>f</i> = [<i>&epsilon;-y</i><sub><i>t</i></sub>,<i>&epsilon;+y</i><sub><i>t</i></sub>];	   y finalmente: </p>     <p><img src="img/revistas/cadm/v23n40/a14e9.jpg"></p>     <p>En esta &uacute;ltima ecuaci&oacute;n, <i>K</i> es una matriz de orden <i>D</i>&times;<i>D</i>,	   con <i>k</i><sub><i>ij</i></sub> = <i>k</i>(<i>x</i><sub><i>i</i></sub>, <i>x</i><sub><i>j</i></sub>).	   Los pesos <i>w</i><sub><i>d</i></sub> se obtienen como: </p>     <p><img src="img/revistas/cadm/v23n40/a14e10.jpg"></p>     <p>En la pr&aacute;ctica, esto equivale a que |<i>w</i><sub><i>d</i></sub>| &le;    <i>C</i>. La formulaci&oacute;n como un problema de programaci&oacute;n cuadr&aacute;tica    implica: (a) que la soluci&oacute;n obtenida es global, ya que la formulaci&oacute;n    del problema es convexa; (b) que la soluci&oacute;n es &uacute;nica, pues la    funci&oacute;n de costo es estrictamente convexa, y (c) que muchos de los pesos    <i>w</i><sub><i>d</i></sub> ser&aacute;n cero. De esta forma, solamente una    fracci&oacute;n de los datos originales contribuye en la funci&oacute;n de error.    Dicha conclusi&oacute;n se basa en las condiciones de Karush-Kuhn-Tucker para    la programaci&oacute;n cuadr&aacute;tica. </p>     <p>Los puntos para los cuales sus correspondientes multiplicadores de Lagrange son	   diferentes de cero (esto es, con <i>L</i><sub><i>&epsilon;</i></sub>(&middot;,&middot;)	   &gt; 0) son llamados vectores de soporte, y son los que permiten realizar la    aproximaci&oacute;n de <i>y</i><sub><i>t</i></sub>	   en (1). As&iacute;, se espera que a medida que aumente el valor de &epsilon;,	   disminuya la cantidad de vectores de soporte; pero que tambi&eacute;n disminuya    la capacidad de aproximaci&oacute;n del modelo a los datos originales. </p>     <p>Un problema fundamental en la metodolog&iacute;a es que el modelo obtenido es	   una funci&oacute;n de los par&aacute;metros <i>C</i>, <i>&epsilon;</i> y <i>&sigma;</i>,    los cuales deben ser ajustados para cada problema espec&iacute;fico. </p>     <p><b>2. Resultados obtenidos y discusi&oacute;n </b></p>     ]]></body>
<body><![CDATA[<p>Tal como ya se indic&oacute;, la	   muestra utilizada corresponde al logaritmo natural de la serie de precios mensuales    promedio de los contratos despachados en la bolsa del mercado mayorista de electricidad    en Colombia, expresada en $/kWh, entre 1996:5 y 2008:6. La serie consta de 146    observaciones, de las cuales las primeras 122 se usan para estimar los par&aacute;metros    de todos los modelos, y las siguientes 24 para evaluar su capacidad de generalizaci&oacute;n.    </p>     <p>Con el fin de determinar la capacidad de generalizaci&oacute;n para distintos	   horizontes de tiempo, se usaron dos muestras de pron&oacute;stico: la primera    consta de 12 observaciones (entre 2006:7 y 2007:6), y la segunda, de 24 observaciones    (entre 2006:7 y 2008:6). Los horizontes de predicci&oacute;n seleccionados son    especialmente dif&iacute;ciles, ya que vuelve a aparecer un patr&oacute;n c&iacute;clico    anual que hab&iacute;a desaparecido desde el 2003 y porque en el punto donde    se inicia la muestra de predicci&oacute;n se presenta un cambio de tendencia    en la serie. </p>     <p>La bondad del ajuste fue medida mediante la sumatoria del error cuadr&aacute;tico	   medio (SSE, por su sigla en ingl&eacute;s) de los residuales, <i>e</i><sub><i>t</i></sub>:	 </p>     <p><img src="img/revistas/cadm/v23n40/a14e11.jpg"></p>     <p>Y su desviaci&oacute;n media absoluta (MAD, por su sigla en ingl&eacute;s):  </p>     <p><img src="img/revistas/cadm/v23n40/a14e12.jpg"></p>     <p>Se estimaron SVM que difieren en los rezagos considerados para pronosticar    la serie. Para cada uno de los modelos se realiz&oacute; la afinaci&oacute;n    manual de los par&aacute;metros <i>C</i>, <i>&epsilon;</i> y <i>&sigma;</i>.    As&iacute;, en el <a href="#Cuadro2">Cuadro 2</a>, para cada conjunto de rezagos considerado, se reporta    la mejor combinaci&oacute;n encontrada para los par&aacute;metros <i>C</i>,    <i>&epsilon;</i> y <i>&sigma;</i>. En este mismo cuadro se reportan el SSE y    el MAD para la muestra de calibraci&oacute;n y para las dos muestras de predicci&oacute;n    usadas para validar la generalizaci&oacute;n de cada configuraci&oacute;n considerada.  </p>     <p>        <center>     <img src="img/revistas/cadm/v23n40/a14c2.jpg"><a name="Cuadro2"></a>    </center> </p>     <p>El modelo SVM-13, que usa como entradas los rezagos 1 al 13 de la serie, presenta	   el mejor ajuste a la muestra de calibraci&oacute;n de los par&aacute;metros.	   Le sigue en calidad el modelo SVM-17, con un SSE superior en m&aacute;s de 300%    al obtenido para el SVM-13. Los modelos SVM-2 y SVM-15 tienen el menor SSE para    la predicci&oacute;n con horizonte de un a&ntilde;o; el SVM-2 presenta el peor    ajuste a la muestra de calibraci&oacute;n, por lo que el estad&iacute;stico	   obtenido para la muestra de predicci&oacute;n puede considerarse coincidencial.  </p>     ]]></body>
<body><![CDATA[<p>Para el horizonte de predicci&oacute;n de 24 meses, el mejor ajuste es obtenido	   con el modelo SVM15; para este, la diferencia entre los SSE calculados para    los dos horizontes de predicci&oacute;n muestran que el segundo a&ntilde;o es    particularmente dif&iacute;cil, ya que el error obtenido respecto al primer    a&ntilde;o se triplica. Teniendo en cuenta simult&aacute;neamente las SSE para    la muestra de calibraci&oacute;n y un horizonte de predicci&oacute;n de un a&ntilde;o    se obtiene el modelo SVM-13, que tiene el mejor ajuste (con un SSE de 0,038),    seguido del SVM-17 con un SSE de 0,061. </p>     <p>Para evaluar la capacidad de predicci&oacute;n de las SVM respecto a otros modelos,	   se consideraron como modelos competidores un MLP y un modelo ARIMA. Ambos modelos    fueron estimados para diferentes conjuntos de rezagos y se seleccionaron los    mejores modelos a partir de su calidad a las distintas muestras de datos. </p>     <p>La arquitectura del MLP consta de una capa de entrada con una neurona por cada	   uno de los rezagos considerados; una capa oculta con 1, 2 o 3 neuronas, y una    capa de salida. La capa oculta se activa con la funci&oacute;n sigmoidea bipolar;    mientras que la capa de salida usa la funci&oacute;n identidad. Los resultados    obtenidos para diferentes conjuntos de rezagos considerados variando la cantidad    de neuronas en la capa oculta son presentados en el <a href="#Cuadro3">Cuadro 3</a>. El MLP-27 presenta    el mejor ajuste a la muestra de calibraci&oacute;n de par&aacute;metros; sin    embargo, su SSE (0,033) es 235% superior al obtenido para el SVM-13 (0,014).    Esta diferencia es igualmente notoria en t&eacute;rminos del MAD. </p>     <p>        <center>     <img src="img/revistas/cadm/v23n40/a14c3.jpg"><a name="Cuadro3"></a>    </center> </p>     <p>Los modelos MLP-1, MLP-2, MLP-3, MLP4 y MLP-9 tienen el menor error para la    predicci&oacute;n con horizonte de un a&ntilde;o, pero su ajuste a la muestra    de calibraci&oacute;n es bastante inferior en calidad respecto a los dem&aacute;s    modelos reportados en el <a href="#Cuadro3">Cuadro 3</a>. Los modelos MLP-2 y MLP-3 tambi&eacute;n    son los mejores en t&eacute;rminos de ajuste a la muestra de predicci&oacute;n    con un horizonte de dos a&ntilde;os. Los modelos MLP-27 y MLP-30 tienen las    menores SSE (de 0,049 y 0,051, respectivamente) al considerar el error sobre    las muestras de calibraci&oacute;n (o entrenamiento en la jerga de inteligencia    artificial) y de predicci&oacute;n un a&ntilde;o adelante. Sin embargo, dichos    modelos se ajustan pobremente al segundo a&ntilde;o de predicci&oacute;n, de    tal forma que sus SSE aumentan a 0,070 y 0,094; no obstante, el modelo MLP-27    es el que mejor se ajusta a los datos disponibles, en t&eacute;rminos de los    criterios de error considerados. </p>     <p>Un aspecto metodol&oacute;gico obligatorio en el desarrollo de modelos de predicci&oacute;n	   no lineales lo constituye la comparaci&oacute;n del modelo propuesto con la    aproximaci&oacute;n lineal tradicional. Ya que la serie presenta una clara componente    de tendencia y un patr&oacute;n c&iacute;clico de periodicidad anual, se procedi&oacute;    a transformarla aplicando los operadores de diferenciaci&oacute;n simple y diferenciaci&oacute;n    estacional de per&iacute;odo 12. Para pronosticar la nueva serie obtenida, se    utilizaron modelos autorregresivos de orden <i>P</i>, con <i>P</i>=1,...,    13. Los estad&iacute;sticos de ajuste a las muestras de calibraci&oacute;n y    predicci&oacute;n se presentan en el <a href="#Cuadro4">Cuadro 4</a>. </p>     <p>        <center>     <img src="img/revistas/cadm/v23n40/a14c4.jpg"><a name="Cuadro4"></a>    </center> </p>     <p>La primera inspecci&oacute;n de los resultados indica que aun cuando existe una	   diferencia apreciable entre los ajustes de los distintos modelos a la muestra    de calibraci&oacute;n, esta se reduce bastante al considerar la predicci&oacute;n    para uno y dos a&ntilde;os de horizonte. As&iacute; es como el mayor SSE es    el 26% y el 36% superior respecto al menor SSE para la correspondiente muestra    de predicci&oacute;n. Tal como en los casos anteriores, se evalu&oacute; el    ajuste de los modelos a las muestras de entrenamiento y de predicci&oacute;n,    y se encontr&oacute; que el modelo ARIMA-13 presenta el mejor ajuste a la totalidad    de los datos. </p>     ]]></body>
<body><![CDATA[<p>En el <a href="#Cuadro5">Cuadro 5</a> se resumen los estad&iacute;sticos calculados para los mejores	   modelos encontrados. En este caso, el modelo SVM-13 presenta los mejores estad&iacute;sticos    de ajuste, con un SSE de 0,038, al considerar simult&aacute;neamente las muestras    para entrenamiento y para predicci&oacute;n un a&ntilde;o adelante; es seguido    por el modelo MLP-27, que tiene un SSE de 0,049. Al tener en cuenta las muestras    de calibraci&oacute;n y de predicci&oacute;n 24 meses adelante, se obtiene que    el modelo MLP-27 (con un SSE de 0,070) es el mejor predictor al considerar toda    la informaci&oacute;n disponible. </p>     <p>        <center>     <img src="img/revistas/cadm/v23n40/a14c5.jpg"><a name="Cuadro5"></a>    </center> </p>     <p>En los <a href="#Grafico2">gr&aacute;ficos 2</a> y <a href="#Grafico3">3</a> se presenta la predicci&oacute;n de los modelos	   SVM-13 y MLP-27 para un horizonte de 24 meses. En dichos gr&aacute;ficos, la    serie real es representada como una secuencia de puntos; esta se distingue claramente    en el extremo izquierdo y el extremo derecho del gr&aacute;fico. Para ambos    modelos se grafican su predicci&oacute;n puntual (valor esperado) y los intervalos    de confianza de la predicci&oacute;n para un nivel de confianza del 95%. La    predicci&oacute;n puntual es representada como una l&iacute;nea continua punteada,    mientras que sus intervalos asociados (que aparecen alrededor de ella) se notan    &uacute;nicamente como l&iacute;neas continuas; estas tres l&iacute;neas son    claramente visibles en el extremo derecho de los gr&aacute;ficos durante la    predicci&oacute;n para la muestra de validaci&oacute;n. </p>     <p>        <center>     <img src="img/revistas/cadm/v23n40/a14g2.jpg"><a name="Grafico2"></a>    </center> </p>     <p>        <center>     <img src="img/revistas/cadm/v23n40/a14g3.jpg"><a name="Grafico3"></a>    </center> </p>     <p><b>Conclusiones </b></p>     <p>En este art&iacute;culo se pronostican	   los precios promedios mensuales de los contratos despachados en el mercado el&eacute;ctrico    de Colombia, usando una m&aacute;quina de vectores de soporte, un perceptr&oacute;n    multicapa y un modelo ARIMA. La predicci&oacute;n de esta serie es bastante    compleja, debido a la presencia de cambios en la amplitud en su patr&oacute;n    c&iacute;clico de periodo anual, as&iacute; como varios cambios en su tendencia    de largo plazo durante el per&iacute;odo analizado. </p>     ]]></body>
<body><![CDATA[<p>Las primeras 122 observaciones se usaron para estimar los par&aacute;metros    de todos los modelos considerados, mientras que las restantes se utilizaron    para evaluar su capacidad de predicci&oacute;n. Debido a la complejidad de la    din&aacute;mica de la serie durante la muestra de predicci&oacute;n, se tomaron    horizontes de 12 y 24 meses, que iniciaron siempre en la observaci&oacute;n    123. Los resultados muestran que la SVM pronostic&oacute; de una forma m&aacute;s    precisa el valor de la serie para el siguiente mes, tanto para la muestra de    calibraci&oacute;n como para el horizonte de 12 meses adelante; no obstante,    un perceptr&oacute;n multicapa present&oacute; el mejor desempe&ntilde;o respecto    a la totalidad de los datos. Este resultado se explica en parte, porque el MLP    no captur&oacute; mejor la din&aacute;mica de la muestra de calibraci&oacute;n    en relaci&oacute;n a la SVM, y ello le permiti&oacute; (al MLP) responder mejor    al cambio estructural que se presenta en la muestra de predicci&oacute;n. </p>     <p>En esta investigaci&oacute;n no se han agotado todos los modelos disponibles,	   y ha sido realizada con la informaci&oacute;n disponible en el momento. Por    ello es necesario revisarla a la luz de nueva informaci&oacute;n e incluir en    la comparaci&oacute;n otros modelos no lineales, como otras arquitecturas de    redes neuronales, redes neurodifusas y modelos estad&iacute;sticos, como los    mencionados en este art&iacute;culo. </p>     <p><b>Lista de referencias </b></p>     <!-- ref --><p>1. Belousov, A. I.; Verzakov, S. A. and von Frese, J. (2002). A flexible    classification approach with optimal generalisation performance: support vector    machines. <i>Chemometrics and Intelligent </i><i>Laboratory Systems</i>, 64,    15-25. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000106&pid=S0120-3592201000010001400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>2. Burges, C. J. C. (1998). A tutorial on support vector machines for pattern    recognition. <i>Data Mining </i><i>and Knowledge Discovery</i>, 2, 121-167.  &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000107&pid=S0120-3592201000010001400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>3. Chen, R. and Tsay, R. (1993). Functional-coefficient autoregressive models. <i>Journal    of the American Statistical Association,</i> 88, 298-308. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000108&pid=S0120-3592201000010001400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>4. Franses, P. H. and van Djck, D. (2000). <i>Non-linear time series models in empirical    finance</i>. Cambridge: Cambridge University Press. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000109&pid=S0120-3592201000010001400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>5. Gunn, S. R. (1997). <i>Support vector machines for classification and regression</i>	   (Technical report). Southampton, UK: Image Speech and Intelligent Systems Research    Group, University of Southampton. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000110&pid=S0120-3592201000010001400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>6. Kaastra, I. and Boyd, M. (1996). Designing a neural network for forecasting financial	   and economic series. <i>Neurocomputing</i>, 10, 215-236. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000111&pid=S0120-3592201000010001400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>7. Masters, T. (1993). <i>Practical neural network recipes in C++</i>. New York:	   Academic Press. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000112&pid=S0120-3592201000010001400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>8.  <i>Neural, novel and hybrid algorithms for time series prediction</i>. (1995).	   New York: John Wiley and Sons. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000113&pid=S0120-3592201000010001400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>9. Mukherjee, S.; Osuna, E. and Girosi, F. (1997). Nonlinear prediction of    chaotic time series using support vector machines. Documento presentado en IEEE    NNSP'97, Amelia Island, FL, Estados Unidos. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000114&pid=S0120-3592201000010001400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>10. Muller, K. R.; Smola, A.; Ratsch, G.; Scholkopf, B.; Kohlmorgen, J. and    Vapnik, V. N. (1997). Predicting time series with support vector machines. En:    W. Gerstner, A. Germond, M. Hasler, and J.-D. Nicoud (Eds.), <i>Proceedings    of ICANN'97</i>, Springer LNCS 1327, Berlin, 999-1004. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000115&pid=S0120-3592201000010001400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>11. Osowski, S. and Garanty, K. (2007). Forecasting of the daily meteorological    pollution using wavelets and support vector machine. <i>Engi</i><i>neering Applications    of Artificial Intelligence</i>, 20, 745-755. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000116&pid=S0120-3592201000010001400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>12. Platt, L. (1998). Fast training of SVM using sequential optimization. En:    B. Scholkopf, B. Burges y A. Smola (Eds.), <i>Advances in Kernel methods-support    vector learning </i>(pp. 185-208). Cambridge: MIT Press. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000117&pid=S0120-3592201000010001400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>13. Scholkopf, B. and Smola, A. (2002). <i>Learning with Kernels.</i> Cambridge,	   MA: MIT Press. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000118&pid=S0120-3592201000010001400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>14. Tay, F. E. H. and Cao, L. (2001). Application of support vector machines in financial	   time series forecasting. <i>Omega</i>, 29, 309-317. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000119&pid=S0120-3592201000010001400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>15. Ter&auml;svirta, T. (1994). Specification, estimation, and evaluation of smooth	   transition autoregressive models. <i>Journal of the American Statistical As</i><i>sociation</i>,    89, 208-218. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000120&pid=S0120-3592201000010001400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>16. Lin, C. and Granger, C. (1993). Power of the neural network linearity	   test. <i>Journal of Time Series Analysis</i>, 14, 209-220. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000121&pid=S0120-3592201000010001400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>17. Thissen, U.; van Brakel, R.; de Weijer, A. P.; Melssen, W. J. and Buydens,    L. M. C. (2003). Using vector support machines for time series prediction. <i>Chemometrics    and Intelligent Laboratory </i><i>Systems</i>, 69, 35-49. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000122&pid=S0120-3592201000010001400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>18. Tong, G. (1978). On a threshold model. En: C. Chen (Ed.), <i>Pattern recognition    and signal processing</i>. Amsterdam: Sijhoff &amp; Noordhoff. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000123&pid=S0120-3592201000010001400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>19. Vapnik, V. N. (1995). <i>The nature of statistical lear</i><i>ning theory</i>.	   New York: Springer. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000124&pid=S0120-3592201000010001400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>20.  <i>Statistical learning theory</i>. (1998). New York: Wiley. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000125&pid=S0120-3592201000010001400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>21. Vapnik, V. N.; Golowich, S. E. and Smola, A. J. (1996). Support vector method	   for function approximation, regression estimation, and signal processing. <i>Advances    in Neural Information Processing Systems</i>, 9, 281-287. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000126&pid=S0120-3592201000010001400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>22. Vel&aacute;squez, J. D.; Dyner, I. y Souza, R. C. (2007). &iquest;Por qu&eacute;	   es tan dif&iacute;cil obtener buenos pron&oacute;sticos de los precios de la    electricidad en mercados competitivos? <i>Cuadernos de Administraci&oacute;n</i>,	   20 (34), 259-282. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000127&pid=S0120-3592201000010001400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>23. Zhang, G.; Patuwo, B. and Hu, M. (1998). Forecasting with artificial neural networks:	   the state of the art. <i>International Journal of Forecasting</i>, 14, 35-62.  &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000128&pid=S0120-3592201000010001400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Belousov]]></surname>
<given-names><![CDATA[A. I]]></given-names>
</name>
<name>
<surname><![CDATA[Verzakov]]></surname>
<given-names><![CDATA[S. A]]></given-names>
</name>
<name>
<surname><![CDATA[von Frese]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A flexible classification approach with optimal generalisation performance: support vector machines]]></article-title>
<source><![CDATA[Chemometrics and Intelligent Laboratory Systems]]></source>
<year>2002</year>
<volume>64</volume>
<page-range>15-25</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burges]]></surname>
<given-names><![CDATA[C. J. C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A tutorial on support vector machines for pattern recognition]]></article-title>
<source><![CDATA[Data Mining and Knowledge Discovery]]></source>
<year>1998</year>
<volume>2</volume>
<page-range>121-167</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Tsay]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Functional-coefficient autoregressive models]]></article-title>
<source><![CDATA[Journal of the American Statistical Association]]></source>
<year>1993</year>
<volume>88</volume>
<page-range>298-308</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Franses]]></surname>
<given-names><![CDATA[P. H]]></given-names>
</name>
<name>
<surname><![CDATA[van Djck]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Non-linear time series models in empirical finance]]></source>
<year>2000</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[Cambridge University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gunn]]></surname>
<given-names><![CDATA[S. R]]></given-names>
</name>
</person-group>
<source><![CDATA[Support vector machines for classification and regression]]></source>
<year>1997</year>
<publisher-loc><![CDATA[Southampton ]]></publisher-loc>
<publisher-name><![CDATA[Image Speech and Intelligent Systems Research Group, University of Southampton]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kaastra]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Boyd]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Designing a neural network for forecasting financial and economic series]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>1996</year>
<volume>10</volume>
<page-range>215-236</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Masters]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Practical neural network recipes in C++]]></source>
<year>1993</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Academic Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="book">
<source><![CDATA[Neural, novel and hybrid algorithms for time series prediction]]></source>
<year>1995</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley and Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mukherjee]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Osuna]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Girosi]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Nonlinear prediction of chaotic time series using support vector machines]]></source>
<year>1997</year>
<conf-name><![CDATA[ IEEE NNSP'97]]></conf-name>
<conf-loc>Amelia Island FL</conf-loc>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Muller]]></surname>
<given-names><![CDATA[K. R]]></given-names>
</name>
<name>
<surname><![CDATA[Smola]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Ratsch]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Scholkopf]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Kohlmorgen]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Vapnik]]></surname>
<given-names><![CDATA[V. N]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predicting time series with support vector machines]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Gerstner]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Germond]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Hasler]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Nicoud]]></surname>
<given-names><![CDATA[J.-D]]></given-names>
</name>
</person-group>
<source><![CDATA[]]></source>
<year>1997</year>
<conf-name><![CDATA[ Proceedings of ICANN'97]]></conf-name>
<conf-loc>Springer </conf-loc>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Osowski]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Garanty]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Forecasting of the daily meteorological pollution using wavelets and support vector machine]]></article-title>
<source><![CDATA[Engineering Applications of Artificial Intelligence]]></source>
<year>2007</year>
<volume>20</volume>
<page-range>745-755</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Platt]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fast training of SVM using sequential optimization]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Scholkopf]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Burges]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Smola]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Advances in Kernel methods - support vector learning]]></source>
<year>1998</year>
<page-range>185-208</page-range><publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Scholkopf]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Smola]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Learning with Kernels]]></source>
<year>2002</year>
<publisher-loc><![CDATA[Cambridge^eMA MA]]></publisher-loc>
<publisher-name><![CDATA[MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tay]]></surname>
<given-names><![CDATA[F. E. H]]></given-names>
</name>
<name>
<surname><![CDATA[Cao]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of support vector machines in financial time series forecasting]]></article-title>
<source><![CDATA[Omega]]></source>
<year>2001</year>
<volume>29</volume>
<page-range>309-317</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Teräsvirta]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Specification, estimation, and evaluation of smooth transition autoregressive models]]></article-title>
<source><![CDATA[Journal of the American Statistical Association]]></source>
<year>1994</year>
<volume>89</volume>
<page-range>208-218</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Granger]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Power of the neural network linearity test]]></article-title>
<source><![CDATA[Journal of Time Series Analysis]]></source>
<year>1993</year>
<volume>14</volume>
<page-range>209-220</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Thissen]]></surname>
<given-names><![CDATA[U]]></given-names>
</name>
<name>
<surname><![CDATA[van Brakel]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[de Weijer]]></surname>
<given-names><![CDATA[A. P]]></given-names>
</name>
<name>
<surname><![CDATA[Melssen]]></surname>
<given-names><![CDATA[W. J]]></given-names>
</name>
<name>
<surname><![CDATA[Buydens]]></surname>
<given-names><![CDATA[L. M. C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using vector support machines for time series prediction]]></article-title>
<source><![CDATA[Chemometrics and Intelligent Laboratory Systems]]></source>
<year>2003</year>
<volume>69</volume>
<page-range>35-49</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tong]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On a threshold model]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern recognition and signal processing]]></source>
<year>1978</year>
<publisher-loc><![CDATA[Amsterdam ]]></publisher-loc>
<publisher-name><![CDATA[Sijhoff & Noordhoff]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vapnik]]></surname>
<given-names><![CDATA[V. N]]></given-names>
</name>
</person-group>
<source><![CDATA[The nature of statistical learning theory]]></source>
<year>1995</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="book">
<source><![CDATA[Statistical learning theory]]></source>
<year>1998</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vapnik]]></surname>
<given-names><![CDATA[V. N]]></given-names>
</name>
<name>
<surname><![CDATA[Golowich]]></surname>
<given-names><![CDATA[S. E]]></given-names>
</name>
<name>
<surname><![CDATA[Smola]]></surname>
<given-names><![CDATA[A.J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Support vector method for function approximation, regression estimation, and signal processing]]></article-title>
<source><![CDATA[Advances in Neural Information Processing Systems]]></source>
<year>1996</year>
<volume>9</volume>
<page-range>281-287</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velásquez]]></surname>
<given-names><![CDATA[J. D]]></given-names>
</name>
<name>
<surname><![CDATA[Dyner]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Souza]]></surname>
<given-names><![CDATA[R. C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[¿Por qué es tan difícil obtener buenos pronósticos de los precios de la electricidad en mercados competitivos?]]></article-title>
<source><![CDATA[Cuadernos de Administración]]></source>
<year>2007</year>
<volume>20</volume>
<numero>34</numero>
<issue>34</issue>
<page-range>259-282</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Patuwo]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Hu]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Forecasting with artificial neural networks: the state of the art]]></article-title>
<source><![CDATA[International Journal of Forecasting]]></source>
<year>1998</year>
<volume>14</volume>
<page-range>35-62</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
