<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1692-3324</journal-id>
<journal-title><![CDATA[Revista Ingenierías Universidad de Medellín]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. ing. univ. Medellin]]></abbrev-journal-title>
<issn>1692-3324</issn>
<publisher>
<publisher-name><![CDATA[Universidad de Medellín]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1692-33242008000200006</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Relación de la escala de intensidad de Mercalli y la información instrumental como una tarea de clasificación de patrones]]></article-title>
<article-title xml:lang="en"><![CDATA[The relationships of Mercalli intensity to instrumental information as a pattern classification task]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Hurtado]]></surname>
<given-names><![CDATA[Jorge E.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Bedoya R.]]></surname>
<given-names><![CDATA[Daniel]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional de Colombia  ]]></institution>
<addr-line><![CDATA[Manizales ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad de Medellín  ]]></institution>
<addr-line><![CDATA[Medellín ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>07</month>
<year>2008</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>07</month>
<year>2008</year>
</pub-date>
<volume>7</volume>
<numero>13</numero>
<fpage>71</fpage>
<lpage>84</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S1692-33242008000200006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S1692-33242008000200006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S1692-33242008000200006&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[A pesar de los progresos ocurridos en la instrumentación sísmica, la valoración de vulnerabilidad sísmica y el daño con índices cualitativos, tal como los proporcionados por Intensidad de Mercalli Modificada (IMM), siguen siendo altamente favorables y útiles para los propósitos prácticos. Para vincular las medidas cualitativas de acción del terremoto y sus efectos, es habitualmente aplicada la regresión estadística. En este artículo, se adopta un planteamiento diferente, el cual consiste en expresar la Intensidad de Mercalli, como una clase en vez de un valor numérico. Una herramienta de clasificación estadística moderna, conocida como máquina de vectores de soporte, se usa para clasificar la información instrumental con el fin de evaluar la intensidad de Mercalli correspondiente. Se muestra que el método da resultados satisfactorios con respecto a las altas incertidumbres y a la medida del daño sísmico cualitativo.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Despite the progress occurred in seismic instrumentation, the assessment of seismic vulnerability and damage qualitative indexes, such as that provided by Mercalli intensity is highly valuable and useful for practical purposes. In order to link the qualitative measures of earthquake action and its effects, statistical regression is commonly applied. in the paper, a different approach is adopted. It consisten in regarding the Mercalli intensity as a class rather that a numerical value. A modern statistical classification tool known as Support Vector Machine is used for classifying the la instrumental information in order to assess the corresponding Mercalli intensity. It is shown that the method gives satisfactory results with regardto the high uncertainties linked to such a qualitative seismic damage measure.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Intensidad de Mercalli]]></kwd>
<kwd lng="es"><![CDATA[daño estructural]]></kwd>
<kwd lng="es"><![CDATA[aprendizaje estadístico]]></kwd>
<kwd lng="es"><![CDATA[máquinas de vectores de soporte]]></kwd>
<kwd lng="es"><![CDATA[reconocimiento de modelo]]></kwd>
<kwd lng="en"><![CDATA[Mercalli Intensity]]></kwd>
<kwd lng="en"><![CDATA[earthquake damage]]></kwd>
<kwd lng="en"><![CDATA[statistical learning]]></kwd>
<kwd lng="en"><![CDATA[support vector machines]]></kwd>
<kwd lng="en"><![CDATA[pattern recognition]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face="Verdana" size="2">     <P ALIGN="CENTER"><B><FONT SIZE="4">Relaci&oacute;n de la escala de intensidad de Mercalli y la informaci&oacute;n instrumental como una tarea de clasificaci&oacute;n de patrones</FONT></B></P>     <P ALIGN="CENTER">&nbsp;</P>     <P ALIGN="CENTER"><B>  <FONT SIZE="3">The relationships of Mercalli intensity to instrumental information as a pattern classification task</FONT></B></P>     <P>&nbsp;</P>     <P>&nbsp; </P>     <P> Jorge E. Hurtado<sup>1</sup>; Daniel Bedoya R.<sup>2</sup></P>     <P>1 Universidad Nacional de Colombia. Apartado 127, Manizales, Colombia. e-mail: <A HREF="mailto:idea@nevado.manizales.unal.edu.co">idea@nevado.manizales.unal.edu.co</A>    <BR> 2 Universidad de Medell&iacute;n. Medell&iacute;n, Colombia. Apartado 1983 Medell&iacute;n, Colombia. e-mail: <A HREF="mailto:dabedoya@udem.edu.co">dabedoya@udem.edu.co</A> </P>     <P>&nbsp;</P>     ]]></body>
<body><![CDATA[<P>&nbsp;</P> </FONT> <hr size="1" noshade> <font face="Verdana" size="2">     <P><B>Resumen</B></P>     <P> A pesar de los progresos ocurridos en la instrumentaci&oacute;n s&iacute;smica,   la valoraci&oacute;n   de vulnerabilidad s&iacute;smica y el da&ntilde;o con &iacute;ndices cualitativos,   tal como los proporcionados   por Intensidad de Mercalli Modificada (IMM), siguen siendo altamente   favorables y &uacute;tiles para los prop&oacute;sitos pr&aacute;cticos. Para   vincular las medidas cualitativas   de acci&oacute;n del terremoto y sus efectos, es habitualmente aplicada la regresi&oacute;n   estad&iacute;stica. En este art&iacute;culo, se adopta un planteamiento diferente,   el cual consiste   en expresar la Intensidad de Mercalli, como una clase en vez de un valor num&eacute;rico.   Una herramienta de clasificaci&oacute;n estad&iacute;stica moderna, conocida   como m&aacute;quina   de vectores de soporte, se usa para clasificar la informaci&oacute;n instrumental   con el fin   de evaluar la intensidad de Mercalli correspondiente. Se muestra que el m&eacute;todo   da   resultados satisfactorios con respecto a las altas incertidumbres y a la medida   del   da&ntilde;o s&iacute;smico cualitativo.</P>     <P>  <B>Palabras clave:</B> Intensidad de Mercalli, da&ntilde;o estructural, aprendizaje   estad&iacute;stico,   m&aacute;quinas de vectores de soporte, reconocimiento de modelo.</P> </FONT> <hr size="1" noshade> <font face="Verdana" size="2">     <P><B>Abstract</B></P>     <P> Despite the progress occurred in seismic instrumentation, the assessment   of   seismic vulnerability and damage qualitative indexes, such as that provided     by Mercalli   intensity is highly valuable and useful for practical purposes. In order     to link   the qualitative measures of earthquake action and its effects, statistical     regression   is commonly applied. in the paper, a different approach is adopted. It consisten     in   regarding the Mercalli intensity as a class rather that a numerical value.     A modern   statistical classification tool known as Support Vector Machine is used for     classifying   the la instrumental information in order to assess the corresponding Mercalli     intensity.   It is shown that the method gives satisfactory results with regardto the     high   uncertainties linked to such a qualitative seismic damage measure.</P>     <P> <B>Keywords: </B>Mercalli Intensity, earthquake damage, statistical learning, support   vector machines, pattern recognition. </P> </FONT> <hr size="1" noshade> <font face="Verdana" size="2">     <P>&nbsp;</P>     <P><B><FONT SIZE="3">1. INTRODUCCI&Oacute;N</FONT></B></P>     <P> La complejidad de la acci&oacute;n de los terremotos   y sus efectos da&ntilde;inos sobre las estructuras, requiere   la adopci&oacute;n de varias perspectivas para su entendimiento.   Desde el principio de la ingenier&iacute;a de   terremotos se ha entendido que la instrumentaci&oacute;n   s&iacute;smica no es suficiente para describir tal complejidad   de los fen&oacute;menos como lo es el da&ntilde;o urbano   y regional. La mayor&iacute;a de la escalas de intensidad   en la actualidad representan una descripci&oacute;n subjetiva   de la respuesta humana al movimiento y a la   descripci&oacute;n asociada al da&ntilde;o de los edificios. Por   esta raz&oacute;n, las medidas cualitativas de la acci&oacute;n de   los terremotos son desarrolladas sobre la base de   la observaci&oacute;n de los efectos.</P>     ]]></body>
<body><![CDATA[<P> Algunas de las escalas propuestas son bien   conocidas. En muchos campos se utiliza la escala   de Intensidad de Mercalli Modificada (IMM). Su   conocimiento es &uacute;til para prop&oacute;sitos de prevenci&oacute;n   de desastres. La intensidad de Mercalli es   habitualmente evaluada despu&eacute;s de la ocurrencia   de un terremoto importante, en escalas regionales   o urbanas. Tambi&eacute;n se estima sobre la base de   informaci&oacute;n hist&oacute;rica de terremotos ocurridos en   el pasado.</P>     <P> Los avances en sismolog&iacute;a e ingenier&iacute;a de instrumentaci&oacute;n   ofrecen la posibilidad de relacionar   la intensidad de Mercalli con datos instrumentales   como un medio para el entendimiento y la   evaluaci&oacute;n destructiva de los terremotos. Tales   relaciones habitualmente han sido llevadas a cabo   usando t&eacute;cnicas de regresi&oacute;n estad&iacute;stica convencionales.   El paso inicial en esta direcci&oacute;n relaciona   la intensidad I con los datos macros&iacute;smicos. Por   ejemplo, una relaci&oacute;n obtenida para M&eacute;xico es   (Esteva 1976)</P>     <P ALIGN="CENTER"> <A NAME="eq1"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq01.JPG">(1)</P>     <P> Donde: M es la magnitud del terremoto y R es   la distancia epicentral. La ventaja de la instrumentaci&oacute;n   de movimientos fuertes es permitir la construcci&oacute;n   de relaciones en t&eacute;rminos de la aceleraci&oacute;n   pico del suelo, tal como se muestra en la <A HREF="#eq2">ecuación 2</A>. Esta expresi&oacute;n es ampliamente usada en el oeste   de los Estados Unidos (Trifunac 1975).</P>     <P ALIGN="CENTER"> <A NAME="eq2"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq02.JPG">(2)</P>     <P> Donde: A es la aceleraci&oacute;n horizontal pico   del suelo.   Relaciones similares se han desarrollado para   la escala de intensidades s&iacute;smica de Jap&oacute;n (JMA),   utilizando modelos de regresi&oacute;n univariante y   multivariante (Yamazaki 2002).</P>     <P ALIGN="CENTER"> <A NAME="eq3"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq03.JPG">(3)</P>     <P> El acercamiento a la estimaci&oacute;n del riesgo   s&iacute;smico depender&aacute; de la experiencia y el conocimiento   basado en la certeza del conjunto de datos   disponibles, independientemente de su tama&ntilde;o.   Una regresi&oacute;n m&aacute;s sofisticada usando un an&aacute;lisis   de componentes principales (Iyengar 1983) ha   sido revisada, debido a que los autores relacionan   la intensidad de Mercalli con un determinado n&uacute;mero   de variables instrumentales: doce variables.   Esto permite m&aacute;s exactitud en la descripci&oacute;n de la   IMM en t&eacute;rminos de la informaci&oacute;n instrumental.   La base de datos proporcionada por estos autores   ser&aacute; utilizada en este trabajo para demostrar las   capacidades del enfoque propuesto.</P>     <P> Adem&aacute;s de los m&eacute;todos de regresi&oacute;n cl&aacute;sico   lineal y de la componente principal, la regresi&oacute;n   tambi&eacute;n puede ser hecha por medio de otras t&eacute;cnicas   tales como redes neuronales, las cuales han   demostrado ser &uacute;tiles en los an&aacute;lisis de regresi&oacute;n   en Ingenier&iacute;a de Terremotos (Dowla 1995, Emami   1996, Hurtado 2001) y campos afines (Yagawa   1996, Hurtado 2001, 2002). En general, algunos   tipos de redes neuronales, a pesar de ser popularmente   considerados como t&eacute;cnicas de inteligencia   artificial, pueden ser leg&iacute;timamente considerados   como un medio para la implementaci&oacute;n adaptativa,   esto es, una funci&oacute;n de regresi&oacute;n dependiente de   la muestra que ha localizado un soporte efectivo.</P>     <P>Como consecuencia, las redes neuronales est&aacute;n   siendo examinadas en la estructura de la teor&iacute;a del   aprendizaje estad&iacute;stico (TAE) como una novedosa   herramienta para resolver las tareas de la estad&iacute;stica tradicional (Vapnik 1998, Anthony 1999).</P>     ]]></body>
<body><![CDATA[<P> Actualmente, la regresi&oacute;n neuronal y los patrones   de clasificaci&oacute;n son otras de estas tareas para las   cuales la redes neuronales han demostrado ser altamente &uacute;   tiles (Bishop 1995) y en las que se investiga   de forma intensiva para ser aplicadas en TAE. En   este caso, el prop&oacute;sito no es obtener una relaci&oacute;n   funcional entre los datos de entrada y la salida, sino   ubicar los datos de entrada en una clase, la que se   distingue de otras clases por una etiqueta. Esta es   una consideraci&oacute;n que puede ser adoptada en el   caso de la intensidad s&iacute;smica de Mercalli, debido   a que su asignaci&oacute;n cualitativa fue hecha por un   experto de acuerdo con las observaciones. Se debe   destacar la naturaleza cualitativa de la escala IMM,   la cual, habitualmente se escribe con n&uacute;meros romanos.   Esta naturaleza podr&iacute;a tambi&eacute;n justificarse   relacionando la informaci&oacute;n instrumental a trav&eacute;s   de t&eacute;cnicas de l&oacute;gica difusa (Lee 1996).</P>     <P> En resumen, la IMM puede ser relacionada   con informaci&oacute;n instrumental a trav&eacute;s de varias   t&eacute;cnicas de regresi&oacute;n: param&eacute;tricas, no param&eacute;tricas,   neuronales y difusas. Tambi&eacute;n, la intensidad   puede ser considerada como una clase en el sentido   estad&iacute;stico. La diferencia entre las dos t&eacute;cnicas   es ilustrada en la <A HREF="#fig1">figura 1</A>.</P>     <P ALIGN="CENTER"><A NAME="fig1"></A></P>     <P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06fig1.JPG"></P>     <P> Fuente: elababoraci&oacute;n propia.    <BR>   <B>Figura 1.</B> Enfoque estad&iacute;stico para la valorar la IMM: (a) Por regresi&oacute;n; (b) Por clasificaci&oacute;n.</P>     <P> El enfoque de la regresi&oacute;n es probado para   atacar una funci&oacute;n continua con datos aleatorios,   la cual, debido a la naturaleza discretade la IMM,   se extiende en la forma indicada en la <A HREF="#fig1">figura 1a</A>. La   regresi&oacute;n lineal cl&aacute;sica difiere de la regresi&oacute;n de la   componente principal en que la primera minimiza   el promedio de la distancia vertical sobre la funci&oacute;n   de regresi&oacute;n, mientras la segunda minimiza la distancia   ortogonal. Independientemente del enfoque   de regresi&oacute;n, cuando se desea obtener una funci&oacute;n   continua con una variable discreta, esta no se ajusta   perfectamente bien a la naturaleza del problema.</P>     <P> Por esta raz&oacute;n, una clase de tarea de clasificaci&oacute;n,   que redondea la estimaci&oacute;n, siempre debe   realizarse usando la funci&oacute;n de regresi&oacute;n. De lo   contrario, el enfoque de clasificaci&oacute;n mostrado en   la <A HREF="#fig1">figura 1b</A> es aparentemente m&aacute;s natural para este   problema, debido a que la naturaleza cualitativa de   la IMM no es forzada. En este enfoque, el &eacute;nfasis   queda directamente en la construcci&oacute;n de las reglas   de decisi&oacute;n; en cambio, en la estimaci&oacute;n de una   funci&oacute;n continua, se hace antes de aplicar la decisi&oacute;n   del redondeo automatizado. El enfoque de clasificaci&oacute;n   es m&aacute;s general. En realidad, no requiere valores   num&eacute;ricos de la intensidad de los terremotos para   aplicarse un etiquetado por ejemplo A, B, C, etc.,   para que el m&eacute;todo considere la IMM como una   variable num&eacute;rica discreta; es una convenci&oacute;n.</P>     <P> La clasificaci&oacute;n de informaci&oacute;n instrumental   de acuerdo con los niveles de intensidad puede   ser buscado despu&eacute;s con m&eacute;todos de patrones   de organizaci&oacute;n, tales como la discriminaci&oacute;n   cl&aacute;sica bayesiana, clasificaci&oacute;n en &aacute;rboles, redes   neuronales (Ripley 1996) y m&aacute;quinas de vector   soporte (Vapnik 2000). Despu&eacute;s de algunas pruebas   realizadas con estas t&eacute;cnicas, se hall&oacute; que el &uacute;   ltimo m&eacute;todo ofrece la mejor tasa de cambio de   clasificaci&oacute;n, y por ello se ha adoptado. Esta superioridad   tiene ra&iacute;ces en los principios leg&iacute;timos   sobre los cuales los m&eacute;todos de vector soporte   est&aacute;n basados, como se resume a continuaci&oacute;n. A   diferencia de las redes neuronales, las m&aacute;quinas de vector soporte no   han sido desarrolladas con   el fin de imitar los procedimientos de aprendizaje   del cerebro, pero s&iacute; directamente sobre la base de   los principios del aprendizaje estad&iacute;stico (Vapnik   1998). A pesar de que su ecuaci&oacute;n de clasificaci&oacute;n   final se parece a la de las redes neuronales, su principal   diferencia respecto a estas es que las reglas de   clasificaci&oacute;n pueden ser expresadas en t&eacute;rminos de   algunas muestras cerca a los l&iacute;mites entre clases. Por   el contrario, en redes neuronales minimizar el error   implica un compromiso sobre todos los patrones   de entrenamiento.</P>     <P> En la siguiente secci&oacute;n presentamos un estado   del conocimiento sobre los m&eacute;todos de vector   soporte, aplicados al problema de reconocimiento   de patrones. Luego se realiza laclasificaci&oacute;n de la   informaci&oacute;n s&iacute;smica instrumental, de acuerdo con   los niveles de IMM, usando la base de datos de la   referencia de Iyenger (Iyenger 1983). La exactitud   de la valoraci&oacute;n es discutida. El art&iacute;culo finaliza   con algunas conclusiones.</P>     ]]></body>
<body><![CDATA[<P>&nbsp;</P>     <P><FONT SIZE="3"> <B>2. Estado del conocimiento   sobre clasificadores de   vectores de soporte</B></FONT></P>     <P> Como se ha dicho antes, existen varios m&eacute;todos   estad&iacute;sticos para realizar la clasificaci&oacute;n dentro de   grupos de muestras. Un requerimiento habitual   en la soluci&oacute;n de problemas estad&iacute;sticos es la necesidad   de tener una gran poblaci&oacute;n de muestras   disponibles con anterioridad para poder reducir la   incertidumbre sobre la predicci&oacute;n. En nuestro caso,   sin embargo, es raro poseer abundantes intensidades   de Mercalli, por lo que se hace necesario aplicar un   m&eacute;todo que sea &oacute;ptimo para peque&ntilde;as poblaciones.</P>     <P> Por esta raz&oacute;n, es conveniente tener como recurso   los m&eacute;todos de reconocimiento de patrones desarrollados   en la estructura de la teor&iacute;a del aprendizaje   estad&iacute;stico (Vapnik 1998, Anthony 1999), debido   a que simplemente apuntan a resolver problemas   estad&iacute;sticos con peque&ntilde;os tama&ntilde;os de muestras.</P>     <P> Para las tareas de reconocimiento de patrones,   el principal instrumento elaborado de la teor&iacute;a del   aprendizaje estad&iacute;stico es el llamado clasificador o   m&aacute;quina de vector de soporte (MVS). A pesar de   que existen algunos otros m&eacute;todos de clasificaci&oacute;n   y variantes de la t&eacute;cnica b&aacute;sica desarrollados en esta   estructura en los a&ntilde;os recientes (Smola 2000, Muller   2001), los CVS cl&aacute;sicos presentados por Vapnik (Vapnik   1998), ser&aacute;n usados aqu&iacute;. El resto de esta secci&oacute;n   est&aacute; dedicada a un resumen de este m&eacute;todo.</P>     <P> Es necesario empezar el resumen de MVS,   a trav&eacute;s del problema de clases separables linealmente,   es decir, que pueden ser separadas por un   hiperplano (<A HREF="#fig2">figura 2</A>).</P>     <P> Sean los patrones <img src="/img/revistas/rium/v7n13/v7n13a06sy01.JPG"> y   denotemos las clases para las cuales ellos pertenecen como  <img src="/img/revistas/rium/v7n13/v7n13a06sy02.JPG"> Se   busca un hiperplano de separaci&oacute;n de la forma</P>     <P ALIGN="CENTER"> <A NAME="eq4"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq04.JPG">(4)</P>     <P> Donde:  <img src="/img/revistas/rium/v7n13/v7n13a06sy03.JPG"> es   un vector de par&aacute;metros que define   el vector normal al hiperplano, <img src="/img/revistas/rium/v7n13/v7n13a06sy12.JPG"> es   el conocido intercepto del an&aacute;lisis de regresi&oacute;n cl&aacute;sico   y <img src="/img/revistas/rium/v7n13/v7n13a06sy04.JPG">  es   el vector normal del producto interno. La condici&oacute;n   impuesta para este hiperplano es maximizar   la distancia para el patr&oacute;n dado; esto permite la   mejor confianza sobre la clasificaci&oacute;n que realiza.   As&iacute;, la optimizaci&oacute;n del problema</P>     <P ALIGN="CENTER"><A NAME="eq5"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq05.JPG">(5)</P>     ]]></body>
<body><![CDATA[<P ALIGN="CENTER">&nbsp;</P>     <P ALIGN="CENTER"><A NAME="fig2"></A></P>     <P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06fig2.JPG"></P>     <P>Fuente: elababoraci&oacute;n propia.    <BR> <B>Figura 2.</B> Hiperplano &oacute;ptimo de separaci&oacute;n</P>     <P>La definici&oacute;n de las clases a trav&eacute;s de un   signo facilita la formulaci&oacute;n de este problema de   optimizaci&oacute;n. Sea <img src="/img/revistas/rium/v7n13/v7n13a06sy05.JPG"> el   margen para cada patr&oacute;n , el cual es expresado como:</P>     <P ALIGN="CENTER"> <A NAME="eq6"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq06.JPG"> (6)</P>     <P> Es evidente que una margen positiva siempre   indica clasificaci&oacute;n derecha, no obstante el signo   de la clase. En este punto es importante normalizar   los par&aacute;metros del hiperplano por    <img src="/img/revistas/rium/v7n13/v7n13a06sy06.JPG">.    Con esta   operaci&oacute;n los puntos cerca al hiperplano satisfacen  <img src="/img/revistas/rium/v7n13/v7n13a06sy07.JPG">  ,   como se muestra en la <A HREF="#fig2">figura 2</A>, y la margen &oacute;ptima   se vuelve</P>     <P ALIGN="CENTER"> <A NAME="eq7"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq07.JPG"> (7)</P>     <P> Como puede ser f&aacute;cilmente demostrado. Ahora   el problema de optimizaci&oacute;n es el siguiente:</P>     ]]></body>
<body><![CDATA[<P> Minimice <img src="/img/revistas/rium/v7n13/v7n13a06sy08.JPG"></P>     <P>Sujeto a <img src="/img/revistas/rium/v7n13/v7n13a06sy09.JPG"></P>     <P> Esta restricci&oacute;n en el problema de optimizaci&oacute;n   puede ser reformada como un problema   no restringido a trav&eacute;s de los multiplicadores de    Lagrange <img src="/img/revistas/rium/v7n13/v7n13a06sy10.JPG"> como</P>     <P ALIGN="CENTER"> <A NAME="eq8"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq08.JPG"> (8)</P>     <P> El problema es hallar los puntos de equilibrio   necesarios para minimizar la funci&oacute;n de p&eacute;rdida   con respecto a los par&aacute;metros del hiperplano   <img src="/img/revistas/rium/v7n13/v7n13a06sy11.JPG"> mientras   se maximiza con respecto a los   multiplicadores de Lagrange. La soluci&oacute;n de este   problema es:</P>     <P ALIGN="CENTER"> <A NAME="eq9"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq09.JPG"> (9)</P>     <P> Tomando en cuenta la certeza de los multiplicadores   de Lagrange la parte anterior de la  <A HREF="#eq9">ecuación 9</A> tiene un importante significado: el vector de pesos puede   ser expandido &uacute;nicamente   en t&eacute;rminos de los patrones que tienen un multiplicador   de Lagrange positivo, mientras el resto no es   necesario. Tal patr&oacute;n especial define el hiperplano   que soporta los vectores. En realidad ellos tienen   la propiedad especial de quedar simplemente   adelante de la margen definida anteriormente.   Esto puede ser f&aacute;cilmente demostrado por medio   de la bien conocida condici&oacute;n complementaria   Karush-Kuhn-Tucker de la teor&iacute;a de optimizaci&oacute;n (Kall 1995), la cual en este caso lleva</P>     <P ALIGN="CENTER"> <A NAME="eq10"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq10.JPG"> (10)</P>     <P> Esta condici&oacute;n implica que la soluci&oacute;n para   los pesos del hiperplano puede ser presentada en   la forma</P>     <P ALIGN="CENTER"><A NAME="eq11"></A> <img src="/img/revistas/rium/v7n13/v7n13a06eq11.JPG"> (11)</P>     ]]></body>
<body><![CDATA[<P> Donde SV es el conjunto de vectores soporte.   El umbral b puede ser entonces calculado despu&eacute;s   por medio de la ecuaci&oacute;n (<A HREF="#eq10">10</A>).</P>     <P> Para complementar la soluci&oacute;n del problema,   es conveniente expresar el problema de optimizaci&oacute;n   en t&eacute;rminos de los multiplicadores de Lagrange   (variables duales). Reemplazando la ecuaci&oacute;n (<A HREF="#eq9">9</A>)   dentro de la ecuaci&oacute;n (<A HREF="#eq8">8</A>). El resultado es   Maximice</P>     <P ALIGN="CENTER"><A NAME="eq12"></A> <img src="/img/revistas/rium/v7n13/v7n13a06eq12.JPG">(12)</P>     <P> sujeto a</P>     <P ALIGN="CENTER"><A NAME="eq13"></A></P>     <P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06eq13.JPG"> (13)</P>     <P> La soluci&oacute;n de este problema de optimizaci&oacute;n   cuadr&aacute;tica debe ser sustituida dentro de la ecuaci&oacute;n   (<A HREF="#eq10">10</A>) y (<A HREF="#eq11">11</A>) para obtener los valores de los par&aacute;metros   del hiperplano. La funci&oacute;n de clasificaci&oacute;n   es entonces:</P>     <P ALIGN="CENTER"><A NAME="eq14"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq14.JPG">(14)</P>     <P> Todo lo dicho anteriormente concierne a la   separaci&oacute;n de clases por medio de un hiperplano.   Este es el caso de clasificaci&oacute;n que nosotros enfrentamos   en este art&iacute;culo; el l&iacute;mite es altamente no   lineal, como ser&aacute; mostrado a continuaci&oacute;n; esto es   necesario para entender la anterior formulaci&oacute;n.   Esto puede ser hecho a trav&eacute;s de la generalizaci&oacute;n   de la &uacute;ltima ecuaci&oacute;n a</P>     <P ALIGN="CENTER"><A NAME="eq15"></A> <img src="/img/revistas/rium/v7n13/v7n13a06eq15.JPG">(15)</P>     ]]></body>
<body><![CDATA[<P> Donde la funci&oacute;n <img src="/img/revistas/rium/v7n13/v7n13a06sy13.JPG"> realiza   un muestreo   desde el espacio de patrones al llamado espacio   caracter&iacute;stico. El muestreo implica una proyecci&oacute;n   sobre un espacio de alta dimensi&oacute;n para el cual la   separaci&oacute;n de clases se vuelve m&aacute;s f&aacute;cil. En realidad,   un teorema de la teor&iacute;a del aprendizaje de clasificaci&oacute;n   usando funciones lineales indica que la   probabilidad correcta de clasificaci&oacute;n incrementa   si la relaci&oacute;n del n&uacute;mero de muestras n a la dimensi&oacute;n   d del espacio de entrada decrece (Vapnik 1998,   Fine 1999). Si el n&uacute;mero de muestras es limitado,   un camino conveniente para mejorar la capacidad   de clasificaci&oacute;n es aumentar la dimensionalidad a   trav&eacute;s de un muestreo no lineal, hecho precediendo   la ecuaci&oacute;n. Note, sin embargo, que la funci&oacute;n <img src="/img/revistas/rium/v7n13/v7n13a06sy13.JPG">   que aparece en la ecuaci&oacute;n (<A HREF="#eq15">15</A>) es &uacute;nicamente la   representaci&oacute;n del producto interno. Consecuentemente,   se puede usar el hecho de Kernels</P>     <P ALIGN="CENTER"> <A NAME="eq16"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq16.JPG">(16)</P>     <P> en cambio de la funci&oacute;n no lineal. Aqu&iacute;, el producto   interno es definido en un espacio de Hilbert.   Con esta modificaci&oacute;n la ecuaci&oacute;n (<A HREF="#eq15">15</A>) se vuelve</P>     <P ALIGN="CENTER"> <A NAME="eq17"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq17.JPG">(17)</P>     <P>Esto significa que el muestreo actual <img src="/img/revistas/rium/v7n13/v7n13a06sy14.JPG">no necesita, expl&iacute;citamente, serconocido.</P>     <P> En el campo del aprendizaje estad&iacute;stico se han   demostrado las significantes ventajas para el aprendizaje   desde las muestras, si los Kernels derivados pueden   ser flexibles, esto es si ellos son parametrizados   por las muestras dadas (Cherkassky 1998). Esto est&aacute;   garantizado en la ecuaci&oacute;n (<A HREF="#eq17">17</A>) por la presencia   de  <img src="/img/revistas/rium/v7n13/v7n13a06sy15.JPG">  como   una variable independiente dentro de Kernel. Tal flexibilidad explica los &eacute;xitos   en las aplicaciones   en redes neuronales para tareas de aprendizaje en   estructuras o mec&aacute;nica de suelos como se cit&oacute; en la   introducci&oacute;n. Este &eacute;xito, junto con el parecido de la   ecuaci&oacute;n (<A HREF="#eq15">15</A>) para aquellos muestreos con redes   neuronales, justifica el uso com&uacute;n de redes neuronales   con Kernel para clasificadores de vector soporte. En   este art&iacute;culo, se hace uso de la funci&oacute;n base de radial   de Kernel dada por</P>     <P ALIGN="CENTER"> <A NAME="eq18"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq18.JPG">(18)</P>     <P> Al final de esta secci&oacute;n un importante tema   que es habitual para funciones de regresi&oacute;n y   clasificaci&oacute;n ser&aacute; tratado. Esta es la habilidad   de generalizaci&oacute;n de la funci&oacute;n, por ejemplo, su   habilidad para ofrecer bajos errores cuando es   usada para valoraci&oacute;n con datos no empleados en   la fase de entrenamiento. Para los prop&oacute;sitos del   presente art&iacute;culo, el problema de generalizaci&oacute;n   es crucial para el uso pr&aacute;ctico de los clasificadores   cuando reciben nueva informaci&oacute;n instrumental.   Sin embargo, un resumen sobre la teor&iacute;a de generalizaci&oacute;n   podr&iacute;a requerir varias p&aacute;ginas.</P>     <P> La habilidad de generalizaci&oacute;n de los clasificadores   de vector soporte est&aacute; controlada por la   llamada dimensi&oacute;n Vapnik-Chervonenkis (VC)   de una clase de funci&oacute;n. Esto es definido como el   m&aacute;ximo n&uacute;mero de dicotom&iacute;as que pueden ser implementados   en un espacio dado por una funci&oacute;n   <img src="/img/revistas/rium/v7n13/v7n13a06sy16.JPG">de   una clase definida por un conjunto de par&aacute;metros <img src="/img/revistas/rium/v7n13/v7n13a06sy17.JPG">.   Por ejemplo, las l&iacute;neas rectas en el espacio pueden ser separadas en   tres muestras   dentro de cualquier 2<sup>3</sup> posibilidades; sin embargo,   por ning&uacute;n medio las l&iacute;neas rectas pueden realizar   2<sup>4</sup> posibilidades de manera discriminante de cuatro   muestras dentro de dos grupos. Esto significa   que la dimensi&oacute;n VC de la clase de l&iacute;neas rectas en   el plano <img src="/img/revistas/rium/v7n13/v7n13a06sy18.JPG">.   En general, la dimensi&oacute;n   VC de un hiperplano en un espacio <img src="/img/revistas/rium/v7n13/v7n13a06sy22.JPG">dimensional   es <img src="/img/revistas/rium/v7n13/v7n13a06sy19.JPG">. La dimensi&oacute;n VC ha sido calculada por   la mayor&iacute;a de los modelos usados por los m&eacute;todos   estad&iacute;sticos flexibles (Burges 1998).</P>     <P> Uno de los principales logros de la teor&iacute;a del   aprendizaje estad&iacute;stico es la derivaci&oacute;n de muchas   distribuciones de l&iacute;mites libres para la generalizaci&oacute;n   del error de un modelo de clasificaci&oacute;n,   regresi&oacute;n y problemas de estimaci&oacute;n de densidad,   sobre la base de de dos componentes: el riesgo   emp&iacute;rico (el cual es solamente determinado por   las muestras) y la dimensi&oacute;n VC (la cual no tiene   probabilidad pero s&iacute; una definici&oacute;n geom&eacute;trica).   El riesgo emp&iacute;rico es el que corresponde a las   muestras de entrenamiento y est&aacute; dado por</P>     ]]></body>
<body><![CDATA[<P ALIGN="CENTER"><A NAME="eq19"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq19.JPG">(19)</P>     <P> Donde <img src="/img/revistas/rium/v7n13/v7n13a06sy20.JPG"> son   los pares   de muestras y sus correspondientes clases y <img src="/img/revistas/rium/v7n13/v7n13a06sy21.JPG"> es   el indicador de la funci&oacute;n:</P>     <P ALIGN="CENTER"> <A NAME="eq20"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq20.JPG">(20)</P>     <P> Para los problemas de clasificaci&oacute;n binario,   una expresi&oacute;n general para la distribuci&oacute;n de   l&iacute;mites libres es</P>     <P ALIGN="CENTER"> <A NAME="eq21"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq21.JPG">(21)</P>     <P> donde</P>     <P ALIGN="CENTER"> <A NAME="eq22"></A><img src="/img/revistas/rium/v7n13/v7n13a06eq22.JPG">(22)</P>     <P>En esta ecuaci&oacute;n v es la dimensi&oacute;n VC y los   par&aacute;metros <img src="/img/revistas/rium/v7n13/v7n13a06sy23.JPG"> est&aacute;n en los rangos <img src="/img/revistas/rium/v7n13/v7n13a06sy24.JPG"> y <img src="/img/revistas/rium/v7n13/v7n13a06sy25.JPG">.</P>     <P> La ecuaci&oacute;n (<A HREF="#eq21">21</A>) tiene varias leyendas. La primera   indica si el modelo tiene una dimensi&oacute;n VC   infinita (el cual es el caso de por ejemplo  <img src="/img/revistas/rium/v7n13/v7n13a06sy26.JPG"> entonces   el riesgo es ilimitado. Por   otra parte, el riesgo tiene un l&iacute;mite que no depende   sobre la medida de la probabilidad de las muestras,   porque ni el riesgo emp&iacute;rico ni la dimensi&oacute;n VC   requieren su conocimiento.</P>     <P> Esto significa que si un m&eacute;todo de clasificaci&oacute;n   aplica la minimizaci&oacute;ndel l&iacute;mite buscando   la dimensi&oacute;n VC bajo control, no es necesaria   la suposici&oacute;n de la estructura probabil&iacute;stica de   los datos de entrenamiento, en contraste con el   m&eacute;todo cl&aacute;sico de discriminaci&oacute;n bayesiano. La   estimaci&oacute;n de la estructura de probabilidad est&aacute;   m&aacute;s involucrada que el objetivo de la clasificaci&oacute;n;   es evidente que haciendo la dimensi&oacute;n VC, la   soluci&oacute;n controlando la variable es un problema   m&aacute;s complicado, cuando se evita un paso del   intermedio. Note en este contraste la suposici&oacute;n   del error de la estructura de probabilidad, que es   un paso com&uacute;n en la regresi&oacute;n lineal cl&aacute;sica para   la valoraci&oacute;n del intervalo de confianza estimado   (Sen, 1990).</P>     ]]></body>
<body><![CDATA[<P> Otro significado de la ecuaci&oacute;n (<A HREF="#eq21">21</A>), que es   importante para una buena valoraci&oacute;n de la escala   de intensidades IMM, con escasa informaci&oacute;n, es la   posibilidad de minimizar el riesgo cuando existen   pocas muestras de entrenamiento. En realidad, si n   (que es la variable de control en la estad&iacute;stica cl&aacute;sica),   es grande, entonces ambos, el riesgo emp&iacute;rico y e,   ser&aacute;n peque&ntilde;os, as&iacute; el limite ser&aacute; tambi&eacute;n   reducido.   Sin embargo, si n es peque&ntilde;o, entonces la reducci&oacute;n   del error de entrenamiento es todav&iacute;a posible, haciendo   la dimensi&oacute;n VC la variable de control. Esta   es la esencia del llamado principio de minimizaci&oacute;n   del riesgo estructural (Vapnik, 1998), que es materia   para el presente art&iacute;culo. En esencia, el m&eacute;todo del vector soporte   aplica este principio directamente,   para que bajo la generalizaci&oacute;n del error, pueda ser   obtenido incluso con peque&ntilde;os tama&ntilde;os de muestras.   Esto se demuestra en la siguiente secci&oacute;n.</P>     <P>&nbsp;</P>     <P> <B><FONT SIZE="3">3. Clasificaci&oacute;n de los datos s&iacute;smicos   con niveles IMM</FONT></B></P>     <P> Los m&eacute;todos y la teor&iacute;a anteriormente presentados,   fueron aplicados a la base de datos de la referencia   (Iyenger 1983), que contiene informaci&oacute;n   instrumental y niveles IMM. Los datos comprenden   92 terremotos e informaci&oacute;n sobre 12 variables,   como aparece en la <A HREF="#tb1">tabla 1</A>.</P>     <P ALIGN="CENTER"><A NAME="tb1"></A></P>     <P> <B>Tabla 1.</B> Variables instrumentales de la base de datos. (Iyengar 1983)</P>     <P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06tb1.JPG"></P>     <P>Fuente: elababoraci&oacute;n propia.</P>     <P> El n&uacute;mero de variables b&aacute;sicas fue la principal   raz&oacute;n para seleccionar esta base de datos, debido a   que el problema de clasificaci&oacute;n de Mercalli es de   hecho complejo. Una raz&oacute;n adicional es que la base   de datos es homog&eacute;nea y los registros pertenecen a   alguna regi&oacute;n s&iacute;smica (occidente de Estados Unidos),   que es una importante consideraci&oacute;n cuando   se usa el enfoque de regresi&oacute;n o clasificaci&oacute;n para   datos sismol&oacute;gicos.</P>     <P>La <A HREF="#fig3">figura 3</A> es un gr&aacute;fico de la intensidad de   Mercalli con respecto a dos variables que son importantes   de determinar de acuerdo con Iyengar (1983).   Se puede observar que las clases est&aacute;n lejos de ser   perfectamente separables, esto es, la discriminaci&oacute;n   del problema es altamente no lineal. Este hecho   valora la proyecci&oacute;n no lineal que aporta el m&eacute;todo del vector soporte descrito anteriormente.</P>     ]]></body>
<body><![CDATA[<P ALIGN="CENTER"><A NAME="fig3"></A></P>     <P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06fig3.JPG"></P>     <P>Fuente: elababoraci&oacute;n propia.    <BR>   <B>Figura 3.</B> Intensidad de Mercalli   con respecto a la aceleraci&oacute;n pico   horizontal y la distancia epicentral.</P>     <P> El enfoque de clasificaci&oacute;n fue aplicado como   sigue. Primero, un CVS fue calculado para decidir   si el correspondiente vector de datos pertenece <img src="/img/revistas/rium/v7n13/v7n13a06sy27.JPG"> o   no. El vector en la clase <img src="/img/revistas/rium/v7n13/v7n13a06sy27.JPG">  no   fue filtrado   afuera pero presentado, sin embargo, como otro   CVS para la siguiente pregunta <img src="/img/revistas/rium/v7n13/v7n13a06sy28.JPG"> Y   as&iacute;   hasta el dilema final <img src="/img/revistas/rium/v7n13/v7n13a06sy29.JPG"> En   otras palabras,   un conjunto de cinco CVS fue entrenado de tal   manera que los resultados de un clasificador no   fueran tomados en cuenta para seleccionar la poblaci&oacute;n   de entrenamiento siguiente. Este criterio fue   adoptado sobre la siguiente base: (a) La intensidad   de Mercalli es un etiquetado cualitativo asignado   por un experto y puede estar sujeta a errores; de   aqu&iacute; la importancia de incluir para los efectos un   posible vector que pertenezca a bajas clases sobre   los c&aacute;lculos de un clasificador de altas clases; (b) el   filtrado de los datos de entrenamiento debe dejar   una poblaci&oacute;n muy peque&ntilde;a para el entrenamiento   del clasificador de altas intensidades.</P>     <P>Una materia de preocupaci&oacute;n que se levanta de   esta anulaci&oacute;n de filtrarse es que el riesgo de inconsistencias   es abierto. Por una inconsistencia puede   ser entendida la situaci&oacute;n cuando un clasificador indica   que el vector correspondiente a una intensidad   es menor que cuatro, pero el siguiente clasificador   indica que pertenece a una intensidad mayor que   seis. Si la condici&oacute;n de ser menor o igual al valor de   referencia es etiquetado con -1 y siendo mayor que   con +1, la consistencia de clasificaci&oacute;n con cinco   CVS debe tomar la forma tal como <img src="/img/revistas/rium/v7n13/v7n13a06sy30.JPG">   que significa que el vector debe ser asignado a <img src="/img/revistas/rium/v7n13/v7n13a06sy31.JPG">   En la aplicaci&oacute;n del procedimiento descrito no fue   encontrada ninguna inconsistencia. Este resultado   es positivo y es debido a la robustez del m&eacute;todo   CVS, que es una consecuencia de la definici&oacute;n del clasificador en t&eacute;rminos del vector cerca al l&iacute;mite.</P>     <P> En orden a usar el conjunto de clasificadores   cuando una nueva informaci&oacute;n es suministrada, es   importante probar el conjunto con casos no presentados   en la fase de entrenamiento. Los c&aacute;lculos   preliminares mostraron que todos los clasificadores   del conjunto requieren cerca de 60 vectores soporte.   El n&uacute;mero de vectores soporte es menor que   las muestras de entrenamiento; esto fue decidido   para entrenar todas las m&aacute;quinas de vector soporte   con las primeras 80 muestras, y reservar 12 para   las pruebas. Para las m&aacute;quinas de vector soporte   fue usado un Kernel de base radial con par&aacute;metros <img src="/img/revistas/rium/v7n13/v7n13a06sy32.JPG"> La   secuencia m&iacute;nima   del m&eacute;todo de   optimizaci&oacute;n (Platt 1999), fue usada para resolver   la restricci&oacute;n del problema de optimizaci&oacute;n puesto   por el vector soporte de entrenamiento. Usando   esta t&eacute;cnica, cada entrenamiento de un clasificador   toma menos de cinco segundos en un computador   personal normal.</P>     <P> La <A HREF="#tb2">tabla 2</A> muestra alguna informaci&oacute;n sobre   la fase de entrenamiento.</P>     <P ALIGN="CENTER"><A NAME="tb2"></A></P>     <P><B>Tabla 2.</B> Informaci&oacute;n de los clasificadores</P>     ]]></body>
<body><![CDATA[<P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06tb2.JPG"></P>     <P>Fuente: elababoraci&oacute;n propia.</P>     <P> Note que el n&uacute;mero de vectores soporte en   todos los casos es muy alto, denotando la complejidad   del problema de clasificaci&oacute;n. El n&uacute;mero de   errores de entrenamiento para cada clasificador   es, no obstante, bajo. Note que estos errores no   son exclusivamente debidos al m&eacute;todo como tal,   pero s&iacute; son inherentes a algunos problemas de clasificaci&oacute;n,   donde las clases no son perfectamente   separables, como es ilustrado por la <A HREF="#fig3">figura 3</A>. Tambi&eacute;n,   la presencia de errores en este caso se debe a   la subjetividad asignada a la IMM.</P>     <P> La <A HREF="#fig4">figura 4</A>, muestra el c&aacute;lculo de las intensidades   con el procedimiento descrito anteriormente.</P>     <P> La comparaci&oacute;n con los valores actuales es   muy buena, como puede verse. Sin embargo, la   comparaci&oacute;n para los casos no usados en la fase   de entrenamiento desplegada en la <A HREF="#fig5">figura 5</A> es m&aacute;s   relevante. En este caso, s&oacute;lo dos de los doce terremotos   no fueron bien clasificados. En resumen, en   la clasificaci&oacute;n de las dos figuras, hay un total de   siete errores, y todos los errores est&aacute;n cerca de un   ocho por ciento, que puede ser considerado bajo   con respecto a la alta no linealidad del problema   del da&ntilde;o s&iacute;smico y las sombras subjetivas al asignar   la IMM. Tambi&eacute;n, se debe notar que en ambas   figuras en ning&uacute;n caso el vector de clasificaci&oacute;n   difiere de m&aacute;s de dos niveles de intensidad IMM,   asignados por un experto.</P>     <P ALIGN="CENTER"><A NAME="fig4"></A></P>     <P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06fig4.JPG"></P>     <P>Fuente: elaboraci&oacute;n propia    <BR>   <B>Figura 4. </B>Comparaci&oacute;n de la intensidad de Mercalli con el conjunto de entrenamiento.</P>     <P ALIGN="CENTER"><A NAME="fig5"></A></P>     ]]></body>
<body><![CDATA[<P ALIGN="CENTER"><img src="/img/revistas/rium/v7n13/v7n13a06fig5.JPG"></P>     <P>Fuente: elaboraci&oacute;n propia    <BR>   <B>Figura 5.</B> Comparaci&oacute;n de la intensidad de Mercalli con el conjunto de validaci&oacute;n.</P>     <P>Los resultados anteriores, junto con la teor&iacute;a   en la que est&aacute; basado el m&eacute;todo de los CVS, sugiere   que el enfoque propuesto es fiable para la evaluaci&oacute;n   de la intensidad sobre la base de informaci&oacute;n s&iacute;smica instrumental.</P>     <P>&nbsp;</P>     <P> <B><FONT SIZE="3">4. CONCLUSIONES</FONT></B></P>     <P> Se present&oacute; un m&eacute;todo para la evaluaci&oacute;n   del da&ntilde;o s&iacute;smico por medio de la Intensidad de   Mercalli Modificada, usando informaci&oacute;n s&iacute;smica   instrumental. El m&eacute;todo est&aacute; basado con respecto   a la intensidad, como una clase en lugar de una   funci&oacute;n de los datos cuantitativos. El m&eacute;todo de   clasificaci&oacute;n del vector soporte fue seleccionado   debido a su leg&iacute;tima fundamentaci&oacute;n te&oacute;rica, ello   da una alta eficiencia para clasificar fen&oacute;menos   complejos no lineales. Los resultados demuestran   que este enfoque es una herramienta conveniente   para estimar intensidades de terremotos, en regiones   s&iacute;smicas, con informaci&oacute;n de movimientos   fuertes. Tambi&eacute;n es una importante herramienta,   para la valoraci&oacute;n de otras clasificaciones del da&ntilde;o   por terremotos. Investigaciones en este aspecto   est&aacute;n siendo llevadas a cabo por los autores.</P>     <P>&nbsp;</P>     <P> <B><FONT SIZE="3">AGRADECIMIENTOS</FONT></B><FONT SIZE="3"> </FONT> </P>     <P>Los autores agradecen el apoyo financiero y   log&iacute;stico, para la realizaci&oacute;n de la presente investigaci&oacute;n,   a la Universidad Nacional de Colombia y   a la Universidad de Medell&iacute;n.</P>     ]]></body>
<body><![CDATA[<P>&nbsp;</P>     <P> <B><FONT SIZE="3">REFERENCIAS</FONT></B></P>     <!-- ref --><P> 1. ANTHONY, M., BARTLETT, P. L. (1999). Neural Network   Learning: Theoretical Foundations. Cambridge University   Press, Cambridge.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000145&pid=S1692-3324200800020000600001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>2.  BISHOP, Ch. 1995. Neural Networks for Pattern Recognition.   Oxford, Ed. Clarendon Press.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000146&pid=S1692-3324200800020000600002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>3.  BURGES, Ch. J. (1998). A Tutorial on Support Vector Machines   for pattern Recognition. Knowledge Discovery   and Data Mining, 2, 121&#8211;167 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000147&pid=S1692-3324200800020000600003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>4. CHERKASSKY, V. MULIER, F. (1998). Learning from Data,   Conceptos, Teor&iacute;a and Methods. New York, Ed. John Wiley and Sons, INC.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000148&pid=S1692-3324200800020000600004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>5.  DOULA, F. U., ROGERS, L. (1995). Solving problems in environmental   engineering and geosciences with artificial   neural networks, The M. I. T. Press, Cambridge.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000149&pid=S1692-3324200800020000600005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>6.  EMAMI, S. M. R., IWAO, Y., HARADA, T. (1996). A Method   for Prediction of Peak Horizontal Acceleration by   Artificial Neural Networks. In Procedings of the Eleventh   World Conference on Earthquake Engineering, pp.   1238, Rotterdam.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000150&pid=S1692-3324200800020000600006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>7.  ESTEVA, L. (1976). Seismicity. In C. Rosenblueth, editors,   Seismic Risk Engineering Decisions. 179-225 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000151&pid=S1692-3324200800020000600007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>8.  FINE, T. (1999). Feedforward Neural Network Methodology,   Springer Verlarg, New York.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000152&pid=S1692-3324200800020000600008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>9.  HURTADO, J. E. (2002). Analysis of One &#8211; Dimensional   Stochastic Finite Elements Using Neural Networks.   Probabilistic Engineering Mechanics, 17, 34&#8211;44 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000153&pid=S1692-3324200800020000600009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>10.  HURTADO, J. E., ALVAREZ, D. A. (2001). Neural &#8211; Networks &#8211;    Based Reliability Analysis: A Comparative         Study. Computer Methods in Applied Mechanics and   Engineering, 191, 113&#8211;132 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000154&pid=S1692-3324200800020000600010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>11.  HURTADO, J. E., LONDO&Ntilde;O, J. M. &amp; MEZA, M. A. 2001.   On Applicability of Neural Networks for Soil Dynamics   Amplification Analysis. Soil Dynamics and Earthquake   Engineering, V. 21, 579 &#8211; 591&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000155&pid=S1692-3324200800020000600011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>12.  IYENGAR, N., PRODHAN, C. (1983). Classification and   rating of strong motion earthquake records. Earthquake   Engineering and Structural Dynamics, 11, 415&#8211;426 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000156&pid=S1692-3324200800020000600012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>13.  KALL, P., WALLACE, S. W. (1995). Stochastic Programming,   Jhon Wiley and Sons, Chichester.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000157&pid=S1692-3324200800020000600013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>14.  KARIM, K. R., YAMAZAKI, F. (2002). Correlation of JMA   instrumental seismic intensity with strong motion   parameters. Earthquake Engineering and Structural   Dynamics, 31, 1191&#8211;1212 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000158&pid=S1692-3324200800020000600014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>15.  LEE, G. C. S., LIN. C. T. (1996). Neural Fuzzy Sytems. Prentice   Hall, Upper Saddle River, USA.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000159&pid=S1692-3324200800020000600015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>16.  M&Uuml;LLER, K. R., MIKA, S., R&Auml;TSCH, G., TSUDA, K.   SCH&Ouml;LKOPF, B. (2001). Introduction to Kernel-based   Learning Algorithms. In Y. H. Hu and J. N. Hwang,   editors, Handbook of Neural Networks Signal Processing,   4.1 - 4.40 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000160&pid=S1692-3324200800020000600016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>17.  PLATT, J. C. (1999). Fast Training of Support Vector Machines   Using Sequential Minimal Optimization, In   B. Sch&ouml;lkopf, C. J. C. Burges, and A. Smola, editors,   Advances in Kernel Methods, 185 &#8211; 208 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000161&pid=S1692-3324200800020000600017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>18.  RIPLEY, B. D. (1996). Pattern Recognition and Neuronal   Networks, Cambridge University Press, Cambridge.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000162&pid=S1692-3324200800020000600018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>19. SEN, A., SRIVASTABA. 1990. Regresi&oacute;n Analysis, Springer Verlarg, New York.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000163&pid=S1692-3324200800020000600019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>20.  SMOLA, A., BARTLETT, P., SCH&Ouml;LKOPF, B., SCHUURMANS,   (2000). Adavances in Large Margin Classifiers.   The M. I. T. Press, Cambridge.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000164&pid=S1692-3324200800020000600020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>21.  TRIFUNAC, M. D., BRADY, A. G. (1975). On correlation   of seismic intensity scales with the peaks of recorded   strong sotion. Bulletin Of The Seismological Society   Of America. 65, (1) 139&#8211;162 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000165&pid=S1692-3324200800020000600021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>22.  VAPNIK, V. (1998). Statistical Learning Theory. Jhon Wiley   and Sons, New York.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000166&pid=S1692-3324200800020000600022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>23.  VAPNIK, V. (2000). The Nature of Statistical Learning   Theory. New York, Ed. Springer Verlag.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000167&pid=S1692-3324200800020000600023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>24.  YAGAWA, G., OKUDA, H. (1996). Neural networks in   computational mechanics. Archives of Computational   Methods in Engineering, 3, 435&#8211;512 pp.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000168&pid=S1692-3324200800020000600024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><P>&nbsp;</P>     <P><B>Recibido: </B>15/04/2008 <B>    <BR> Aceptado:</B> 24/11/2008</P>     <P>&nbsp;</P> </FONT>     ]]></body>
<body><![CDATA[ ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ANTHONY]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[BARTLETT]]></surname>
<given-names><![CDATA[P. L]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural Network Learning: Theoretical Foundations]]></source>
<year>1999</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[Cambridge University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BISHOP]]></surname>
<given-names><![CDATA[Ch]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural Networks for Pattern Recognition]]></source>
<year>1995</year>
<publisher-loc><![CDATA[Oxford ]]></publisher-loc>
<publisher-name><![CDATA[Ed. Clarendon Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BURGES]]></surname>
<given-names><![CDATA[Ch. J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Tutorial on Support Vector Machines for pattern Recognition]]></article-title>
<source><![CDATA[Knowledge Discovery and Data Mining]]></source>
<year>1998</year>
<volume>2</volume>
<page-range>121-167</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CHERKASSKY]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[MULIER]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Learning from Data, Conceptos, Teoría and Methods]]></source>
<year>1998</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Ed. John Wiley and Sons, INC]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DOULA]]></surname>
<given-names><![CDATA[F. U.]]></given-names>
</name>
<name>
<surname><![CDATA[ROGERS]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Solving problems in environmental engineering and geosciences with artificial neural networks]]></source>
<year>1995</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[The M. I. T. Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[EMAMI]]></surname>
<given-names><![CDATA[S. M. R]]></given-names>
</name>
<name>
<surname><![CDATA[IWAO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[HARADA]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Method for Prediction of Peak Horizontal Acceleration by Artificial Neural Networks]]></article-title>
<source><![CDATA[In Procedings of the]]></source>
<year>1996</year>
<conf-name><![CDATA[Eleventh World Conference on Earthquake Engineering]]></conf-name>
<conf-loc> </conf-loc>
<publisher-loc><![CDATA[Rotterdam ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ESTEVA]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Seismicity]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rosenblueth]]></surname>
</name>
</person-group>
<source><![CDATA[, Seismic Risk Engineering Decisions]]></source>
<year>1976</year>
<page-range>179-225</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FINE]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Feedforward Neural Network Methodology]]></source>
<year>1999</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Springer Verlarg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HURTADO]]></surname>
<given-names><![CDATA[J. E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Analysis of One - Dimensional Stochastic Finite Elements Using Neural Networks]]></article-title>
<source><![CDATA[Probabilistic Engineering Mechanics]]></source>
<year>2002</year>
<volume>17</volume>
<page-range>34-44</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HURTADO]]></surname>
<given-names><![CDATA[J. E]]></given-names>
</name>
<name>
<surname><![CDATA[ALVAREZ]]></surname>
<given-names><![CDATA[D. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural - Networks - Based Reliability Analysis: A Comparative Study]]></article-title>
<source><![CDATA[Computer Methods in Applied Mechanics and Engineering]]></source>
<year>2001</year>
<volume>191</volume>
<page-range>113-132</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HURTADO]]></surname>
<given-names><![CDATA[J. E]]></given-names>
</name>
<name>
<surname><![CDATA[LONDOÑO]]></surname>
<given-names><![CDATA[J. M]]></given-names>
</name>
<name>
<surname><![CDATA[MEZA]]></surname>
<given-names><![CDATA[M. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On Applicability of Neural Networks for Soil Dynamics Amplification Ana]]></article-title>
<source><![CDATA[Soil Dynamics and Earthquake Engineering]]></source>
<year>2001</year>
<volume>21</volume>
<page-range>579 - 591</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[IYENGAR]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[PRODHAN]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Classification and rating of strong motion earthquake records]]></article-title>
<source><![CDATA[Earthquake Engineering and Structural Dynamics]]></source>
<year>1983</year>
<volume>11</volume>
<page-range>415-426</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KALL]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[WALLACE]]></surname>
<given-names><![CDATA[S. W]]></given-names>
</name>
</person-group>
<source><![CDATA[Stochastic Programming,]]></source>
<year>1995</year>
<publisher-loc><![CDATA[Chichester ]]></publisher-loc>
<publisher-name><![CDATA[Jhon Wiley and Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KARIM]]></surname>
<given-names><![CDATA[K. R.]]></given-names>
</name>
<name>
<surname><![CDATA[YAMAZAKI]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Correlation of JMA instrumental seismic intensity with strong motion parameters]]></article-title>
<source><![CDATA[Earthquake Engineering and Structural Dynamics]]></source>
<year>2002</year>
<volume>31</volume>
<page-range>1191-1212</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LEE]]></surname>
<given-names><![CDATA[G. C. S]]></given-names>
</name>
<name>
<surname><![CDATA[LIN]]></surname>
<given-names><![CDATA[C. T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural Fuzzy Sytems]]></source>
<year>1996</year>
<publisher-loc><![CDATA[Upper Saddle River ]]></publisher-loc>
<publisher-name><![CDATA[Prentice Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MÜLLER]]></surname>
<given-names><![CDATA[K. R]]></given-names>
</name>
<name>
<surname><![CDATA[MIKA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[RÄTSCH]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[TSUDA]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[SCHÖLKOPF]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Introduction to Kernel-based Learning Algorithms]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Hu]]></surname>
<given-names><![CDATA[Y. H.]]></given-names>
</name>
<name>
<surname><![CDATA[Hwang]]></surname>
<given-names><![CDATA[J. N]]></given-names>
</name>
</person-group>
<source><![CDATA[Handbook of Neural Networks Signal Processing]]></source>
<year>2001</year>
<page-range>4.1 - 4.40</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PLATT]]></surname>
<given-names><![CDATA[J. C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fast Training of Support Vector Machines Using Sequential Minimal Optimization]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Schölkopf]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Burges]]></surname>
<given-names><![CDATA[C. J. C]]></given-names>
</name>
<name>
<surname><![CDATA[Smola]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Advances in Kernel Methods]]></source>
<year>1999</year>
<page-range>185 - 208</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RIPLEY]]></surname>
<given-names><![CDATA[B. D]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Recognition and Neuronal Networks]]></source>
<year>1996</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[Cambridge University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SEN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[SRIVASTABA]]></surname>
</name>
</person-group>
<source><![CDATA[Regresión Analysis]]></source>
<year>1990</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Springer Verlarg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SMOLA]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[BARTLETT]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[SCHÖLKOPF]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[SCHUURMANS]]></surname>
</name>
</person-group>
<source><![CDATA[Adavances in Large Margin Classifiers]]></source>
<year>2000</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[The M. I. T. Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TRIFUNAC]]></surname>
<given-names><![CDATA[M. D]]></given-names>
</name>
<name>
<surname><![CDATA[BRADY]]></surname>
<given-names><![CDATA[A. G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On correlation of seismic intensity scales with the peaks of recorded strong sotion]]></article-title>
<source><![CDATA[Bulletin Of The Seismological Society Of America]]></source>
<year>1975</year>
<volume>65</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>139-162</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VAPNIK]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical Learning Theory]]></source>
<year>1998</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Jhon Wiley and Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VAPNIK]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
</person-group>
<source><![CDATA[The Nature of Statistical Learning Theory]]></source>
<year>2000</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Ed. Springer Verlag]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YAGAWA]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[OKUDA]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural networks in computational mechanics]]></article-title>
<source><![CDATA[Archives of Computational Methods in Engineering]]></source>
<year>1996</year>
<volume>3</volume>
<page-range>435-512</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
