<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0012-7353</journal-id>
<journal-title><![CDATA[DYNA]]></journal-title>
<abbrev-journal-title><![CDATA[Dyna rev.fac.nac.minas]]></abbrev-journal-title>
<issn>0012-7353</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional de Colombia]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0012-73532010000200027</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[LA TEORÍA DE LOS CONJUNTOS APROXIMADOS PARA EL DESCUBRIMIENTO DE CONOCIMIENTO]]></article-title>
<article-title xml:lang="en"><![CDATA[ROUGH SETS THEORY TO KNOWLEDGE DISCOVERY]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[CABALLERO]]></surname>
<given-names><![CDATA[YAILÉ]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[RAFAEL]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[ARCO]]></surname>
<given-names><![CDATA[LETICIA]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[CÁRDENAS]]></surname>
<given-names><![CDATA[BEITMANTT]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[MÁRQUEZ]]></surname>
<given-names><![CDATA[YENNELY]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[MARÍA M.]]></given-names>
</name>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Camagüey Departamento de Computación ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Central de Las Villas Departamento de Computación ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Central de Las Villas Departamento de Computación ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A04">
<institution><![CDATA[,Universidad Distrital Francisco José de Caldas  ]]></institution>
<addr-line><![CDATA[Bogotá ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A05">
<institution><![CDATA[,Universidad de Camagüey Departamento de Computación. ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A06">
<institution><![CDATA[,Universidad Central de Las Villas Departamento de Computación ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2010</year>
</pub-date>
<volume>77</volume>
<numero>162</numero>
<fpage>261</fpage>
<lpage>270</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0012-73532010000200027&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0012-73532010000200027&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0012-73532010000200027&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[La Teoría de los Conjuntos Aproximados (RST) abrió una nueva dirección en el desarrollo de teorías sobre la información incompleta y es una poderosa herramienta para el análisis de datos. En esta investigación se demuestra la posibilidad de usar esta teoría para generar conocimiento a priori sobre un conjunto de datos. Se desarrolla una propuesta para caracterizar a priori conjuntos de entrenamiento, usando medidas de estimación de la RST. La propuesta ha sido estudiada experimentalmente usando bases de datos internacionales y se han obtenido resultados satisfactorios.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The Rough Set Theory (RST) opened a new direction in the development of incomplete information theories and is a powerful tool for the analysis of data. In this investigation the possibility is demonstrated of using this theory to generate knowledge on a data set. A proposal is developed to characterize sets of training, using measures of estimation of the RST. The proposal has been studied experimentally using international data bases and satisfactory results have been obtained.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[descubrimiento de conocimiento]]></kwd>
<kwd lng="es"><![CDATA[Teoría de los Conjuntos Aproximados]]></kwd>
<kwd lng="en"><![CDATA[knowledge discovery]]></kwd>
<kwd lng="en"><![CDATA[Rough Sets Theory.]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="center"> <font size="4" face="Verdana, Arial, Helvetica, sans-serif"><b>LA TEOR&Iacute;A DE LOS CONJUNTOS APROXIMADOS PARA EL DESCUBRIMIENTO DE   CONOCIMIENTO</b></font></p>     <p align="center"><i><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>ROUGH SETS THEORY TO KNOWLEDGE DISCOVERY</b></font></i></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>YAIL&Eacute;   CABALLERO</b>    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Departamento de Computaci&oacute;n.    Universidad   de Camagüey, Cuba . <i><a href="mailto:yailec@yahoo.com">yailec@yahoo.com</a></i></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RAFAEL BELLO</b>    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><i>Departamento   de Computaci&oacute;n. Universidad Central de Las Villas, Cuba</i>. <i><a href="mailto:rbellop@uclv.edu.cu">rbellop@uclv.edu.cu</a></i></font></p>     <P align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>LETICIA ARCO</b><i>     <br>   Departamento de Computaci&oacute;n. Universidad   Central de Las Villas, Cuba</i> </font></P>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>BEITMANTT C&Aacute;RDENAS</b>    ]]></body>
<body><![CDATA[<br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Universidad   Distrital Francisco Jos&eacute; de Caldas, Bogot&aacute;, Colombia. <i><a href="mailto:beitmantt@yahoo.com">beitmantt@yahoo.com</a></i></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>YENNELY   M&Aacute;RQUEZ </b><i>    <br>   Departamento   de Computaci&oacute;n. Universidad de Camagüey, Cuba</i> </font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>MAR&Iacute;A M. GARC&Iacute;A </b><i>    <br>   Departamento   de Computaci&oacute;n. Universidad Central de Las Villas, Cuba</i></font></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Recibido para revisar Octubre 31 de 2008, aceptado Junio   2 de 2009, versi&oacute;n final Julio 17 de 2009</b></font></p>     <p>&nbsp;</p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Resumen: </b>La Teor&iacute;a de los Conjuntos Aproximados (RST) abri&oacute; una nueva direcci&oacute;n en el   desarrollo de teor&iacute;as sobre la informaci&oacute;n incompleta y es una poderosa   herramienta para el an&aacute;lisis de datos. En esta investigaci&oacute;n se demuestra la   posibilidad de usar esta teor&iacute;a para generar conocimiento a priori sobre un   conjunto de datos. Se desarrolla una propuesta para caracterizar a priori   conjuntos de entrenamiento, usando medidas de estimaci&oacute;n de    la   RST. La propuesta ha sido estudiada   experimentalmente usando bases de datos internacionales y se han obtenido   resultados satisfactorios.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Palabras clave:</b> descubrimiento de conocimiento, Teor&iacute;a de los Conjuntos   Aproximados.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Abstract: </b>The Rough Set Theory   (RST) opened a new direction in the development of incomplete information   theories and is a powerful tool for the analysis of data. In this investigation the possibility is demonstrated   of using this theory to generate knowledge on a data set. A proposal is   developed to characterize sets of training, using measures of estimation of the   RST. The proposal has been studied experimentally using international data   bases and satisfactory results have been obtained.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Keywords:</b> knowledge   discovery, Rough Sets Theory.</font></p> <hr>     <p>&nbsp;</p>     <p><b><font size="3" face="Verdana, Arial, Helvetica, sans-serif">1. INTRODUCCI&Oacute;N</font></b></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para los cient&iacute;ficos los datos representan   observaciones cuidadosamente recogidas de alg&uacute;n fen&oacute;meno en estudio; en los   negocios, los datos guardan informaciones sobre mercados, competidores y   clientes; en procesos industriales, recogen valores sobre el cumplimiento de   objetivos. El verdadero valor de los datos radica en la posibilidad de extraer   de ellos informaci&oacute;n &uacute;til para la toma de decisiones o la exploraci&oacute;n y   comprensi&oacute;n de los fen&oacute;menos que le dieron lugar &#91;1&#93;. El an&aacute;lisis de datos es importante en ramas como: bioinform&aacute;tica,   medicina, econom&iacute;a y finanzas, industria, medio ambiente, entre otras, donde el   preprocesamiento de estos es esencial. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una de las teor&iacute;as m&aacute;s recientes empleada para el   an&aacute;lisis de datos es la   Teor&iacute;a de los Conjuntos Aproximados RST (<u>Rough Set Theory</u>) &#91;2&#93;. Esta teor&iacute;a se considera como una de las cinco &aacute;reas   claves y no tradicionales de    la Inteligencia Artificial   y de la Teor&iacute;a   de la   Informaci&oacute;n Incompleta, pues constituye una herramienta muy   &uacute;til para el manejo de la informaci&oacute;n no completa o imprecisa &#91;3&#93;. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los m&eacute;todos para estudiar la calidad de los conjuntos   de entrenamientos (CE) usualmente son aplicados post-aprendizaje, de modo que   tienen incluido el costo computacional de aplicar el m&eacute;todo de aprendizaje;   encontrar m&eacute;todos que permitan una evaluaci&oacute;n a priori del CE es un problema   altamente relevante en al &aacute;rea del aprendizaje automatizado. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como se ver&aacute; en el presente art&iacute;culo esta   problem&aacute;tica motiv&oacute; la presente investigaci&oacute;n por lo que se dan elementos   necesarios en este sentido en el ep&iacute;grafe 2. Luego, se introducen conceptos   importantes acerca de    la   Teor&iacute;a de los Conjuntos Aproximados en el ep&iacute;grafe 3 y posteriormente,   en el ep&iacute;grafe 4 se presenta la propuesta relacionada con el descubrimiento de   conocimiento a trav&eacute;s de la   Teor&iacute;a de los Conjuntos Aproximados.</font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>2. CARACTERIZACI&Oacute;N A PRIORI DE LOS CONJUNTOS DE ENTRENAMIENTO PARA LA CLASIFICACI&Oacute;N SUPERVISADA</b></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Usualmente se eval&uacute;a la calidad del conocimiento   resultante de aplicar alg&uacute;n m&eacute;todo de aprendizaje usando el conjunto de   control; es decir, la evaluaci&oacute;n es post-aprendizaje. A partir de los datos   disponibles se aplican diferentes m&eacute;todos de aprendizaje para determinar cu&aacute;l   produce un mejor conocimiento. El estudio de la relaci&oacute;n entre el conjunto de   entrenamiento y la eficiencia y eficacia lograda en el proceso de aprendizaje   se realiza usando el m&eacute;todo de prueba y error de una forma experimental. Es   decir, se realizan sucesivos procesos de entrenamiento y se validan los   resultados alcanzados. De modo que resulta de gran inter&eacute;s poder estimar la   calidad de los datos antes de proceder al aprendizaje para evitar trabajos   innecesarios.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sin embargo, tanto los m&eacute;todos de aprendizaje   como los m&eacute;todos para mejorar estos conjuntos dependen de la informaci&oacute;n   original contenida en ellos. El estudio de calidad del conjunto de   entrenamiento puede servir de base para tomar decisiones sobre c&oacute;mo desarrollar   el aprendizaje. Es decir, dado un conjunto de entrenamiento (<u>training set</u>,   TS) se desea tener una funci&oacute;n <i>f</i> tal que <i>f</i>(<i>TS</i>)   d&eacute; un indicador de cu&aacute;n bueno parece ser TS para extraer desde &eacute;l conocimiento   necesario para construir un clasificador. El problema es encontrar esa funci&oacute;n <i>f</i>.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Existen pocos trabajos en este sentido &#91;4, 5, 6,   7, 8&#93;. Uno de ellos es para estimar la calidad, en t&eacute;rminos del <u>bias</u> y   de la varianza, del conjunto de entrenamiento a trav&eacute;s del coeficiente de Bhattacharyya   y una distribuci&oacute;n gaussiana multivariada. Este trabajo se limita a problemas   descritos por dos clases solamente &#91;4&#93;. En 1994, Michie y colaboradores   realizan un estudio para estimar, a partir de caracter&iacute;sticas de los conjuntos   de entrenamiento y medidas estad&iacute;sticas aplicadas a dichos conjuntos, qu&eacute;   clasificadores supervisados pudieran usarse &#91;5, 6&#93;. Sin embargo, no se obtiene   informaci&oacute;n a priori de la calidad del desempe&ntilde;o de los clasificadores   seleccionados. En &#91;8&#93; se realiza un estudio, a partir de las medidas cl&aacute;sicas   de los Conjuntos Aproximados, para estimar la calidad de los conjuntos de   entrenamiento para redes Perceptron multicapa.</font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>3. LA TEOR&Iacute;A DE LOS CONJUNTOS APROXIMADOS</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> La Teor&iacute;a de Conjuntos   Aproximados (Rough Sets Theory) fue introducida por Z. Pawlak en 1982 &#91;2&#93;. Se basa en aproximar cualquier concepto, un subconjunto duro del   dominio, como por ejemplo, una clase en un problema de clasificaci&oacute;n   supervisada, por un par de conjuntos exactos, llamados aproximaci&oacute;n inferior y   aproximaci&oacute;n superior del concepto. Con esta teor&iacute;a es posible tratar tanto   datos cuantitativos como cualitativos, y no se requiere eliminar las inconsistencias   previas al an&aacute;lisis; respecto a la informaci&oacute;n de salida puede ser usada para   determinar la relevancia de los atributos, generar las relaciones entre ellos   (en forma de reglas), entre otras. La inconsistencia describe una situaci&oacute;n en   la cual hay dos o m&aacute;s valores en conflicto para ser asignados a una variable &#91;9&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.1 Principales definiciones de </b> <b>la Teor&iacute;a de los Conjuntos Aproximados    <br>   </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La filosof&iacute;a de los conjuntos aproximados se basa   en la suposici&oacute;n de que con todo objeto <i>x</i> de un universo <i>U</i> est&aacute;   asociada una cierta cantidad de informaci&oacute;n (datos y conocimiento), expresado   por medio de algunos atributos que describen el objeto &#91;10&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Definici&oacute;n 1. Sistema de Informaci&oacute;n y sistema de   decisi&oacute;nSea un conjunto de atributos <i>A=</i>{<i>a<sub>1</sub>, a<sub>2</sub>,&#8230;,a<sub>n</sub></i>}   y un conjunto <i>U</i> no vac&iacute;o llamado universo de ejemplos (objetos,   entidades, situaciones o estados) descritos usando los atributos <i>a<sub>i</sub></i>;   al par <i>(U,A)</i> se le denomina Sistema de informaci&oacute;n &#91;16&#93;. Si a cada elemento de <i>U</i> se le agrega un nuevo atributo <i>d</i> llamado decisi&oacute;n, indicando la decisi&oacute;n tomada en ese estado o situaci&oacute;n,   entonces se obtiene un Sistema de decisi&oacute;n (<i>U</i>,<i>A<sub><img src="/img/revistas/dyna/v77n162/a27eq002.gif"></sub></i>{<i>d</i>}), donde <i>d<sub><img src="/img/revistas/dyna/v77n162/a27eq004.gif"></sub> A</i>.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Definici&oacute;n 2. Relaci&oacute;n de inseparabilidad    ]]></body>
<body><![CDATA[<br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A cada subconjunto de atributos <i>B</i> de <i>A</i> <i>B<sub><img src="/img/revistas/dyna/v77n162/a27eq006.gif"></sub>A</i> est&aacute; asociada una relaci&oacute;n binaria de inseparabilidad   denotada por <i>R</i>, la cual es el conjunto de pares de objetos que son   inseparables uno de otros por esa relaci&oacute;n &#91;11&#93;.</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq01.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una relaci&oacute;n de inseparabilidad (<u>indiscernibility   relation</u>) que sea definida a partir de formar subconjuntos de elementos de <i>U</i> que tienen igual valor para un subconjunto de atributos <i>B</i> de <i>A</i>,<i> B<sub><img src="/img/revistas/dyna/v77n162/a27eq006.gif"></sub>A</i>, es una relaci&oacute;n de equivalencia. Los conceptos b&aacute;sicos   de la RST son las   aproximaciones inferiores y superiores de un subconjunto <i>X</i>&Iacute;<i>U</i>. Estos conceptos fueron originalmente   introducidos con referencia a una relaci&oacute;n de inseparabilidad <i>R</i>. Sea <i>R</i> una relaci&oacute;n binaria definida sobre <i>U</i> la cual representa la   inseparabilidad, se dice que <i>R</i>(<i>x</i>) significa el conjunto de   objetos los cuales son inseparables de <i>x</i>. As&iacute;, <sub><img src="/img/revistas/dyna/v77n162/a27eq008.gif"></sub>. En la   RST cl&aacute;sica, <i>R</i> es definida como una relaci&oacute;n de   equivalencia; es decir, es una relaci&oacute;n binaria <i>R<sub><img src="/img/revistas/dyna/v77n162/a27eq006.gif"></sub>UxU</i> que es reflexiva, sim&eacute;trica y transitiva. <i>R</i> induce una partici&oacute;n de <i>U</i> en clases de equivalencia correspondiente a <i>R</i>(<i>x</i>), <i>x</i>Î<i>U</i>.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este enfoque cl&aacute;sico de RST es extendido mediante   la aceptaci&oacute;n que objetos que no son inseparables pero s&iacute; suficientemente   cercanos o similares puedan ser agrupados en la misma clase &#91;12&#93;. El objetivo es construir una relaci&oacute;n <i>R&#8217;</i> a partir de la   relaci&oacute;n de inseparabilidad <i>R</i> pero flexibilizando las condiciones   originales para la inseparabilidad. Esta flexibilizaci&oacute;n puede ser realizada de   m&uacute;ltiples formas, as&iacute; como pueden ser dadas varias definiciones posibles de   similitud. Existen varias funciones de comparaci&oacute;n de atributos (funciones de   similitud), las cuales est&aacute;n asociadas al tipo del atributo que se compara. Sin   embargo, la relaci&oacute;n <i>R&#8217;</i> debe satisfacer algunos requerimientos   m&iacute;nimos. Si <i>R</i> es una relaci&oacute;n de inseparabilidad definida en <i>U</i>, <i>R&#8217;</i> es una relaci&oacute;n de similitud extendida de <i>R</i> si y solo si <sub><img src="/img/revistas/dyna/v77n162/a27eq010.gif"></sub> y <sub><img src="/img/revistas/dyna/v77n162/a27eq012.gif"></sub>, <sub><img src="/img/revistas/dyna/v77n162/a27eq014.gif"></sub>, <sub><img src="/img/revistas/dyna/v77n162/a27eq016.gif"></sub>, donde <i>R&#8217;</i>(<i>x</i>) es la </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">clase de similitud de <i>x</i>, es decir, <i>R&#8217;</i>(<i>x</i>)=   <st2:citation w:st="on">{<i>y</i>Î<i>U</i>: <i>yR&#8217;x</i>}</st2:citation>   . <i>R&#8217;</i> es reflexiva, cualquier   clase de similitud puede ser vista como un agrupamiento de clases de   inseparabilidad y <i>R&#8217;</i> induce un cubrimiento de <i>U</i> &#91;13&#93;. Esto muestra que un objeto puede pertenecer a diferentes clases de   similitud simult&aacute;neamente, lo que significa que el cubrimiento inducido por <i>R&#8217;</i> sobre <i>U</i> no es necesariamente una partici&oacute;n. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La aproximaci&oacute;n de un conjunto <i>X</i>&Iacute;<i>U</i>, usando una relaci&oacute;n de inseparabilidad <i>R</i>,   ha sido inducida como un par de conjuntos llamados aproximaciones <i>R</i>-inferior   y <i>R</i>-superior de <i>X</i>. Se considera en esta tesis una definici&oacute;n de   aproximaciones m&aacute;s general, la cual maneja cualquier relaci&oacute;n reflexiva <i>R&#8217;</i>.   Las aproximaciones <i>R&#8217;</i>-inferior (<sub><img src="/img/revistas/dyna/v77n162/a27eq018.gif"></sub>) y <i>R&#8217;</i>-superior (<sub><img src="/img/revistas/dyna/v77n162/a27eq020.gif"></sub>) de <i>X</i> est&aacute;n definidas respectivamente como se muestra   en las expresiones (2) y (3).</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq0203.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Teniendo en cuenta las expresiones definidas en 2   y 3, se define la regi&oacute;n l&iacute;mite de <i>X</i> para la relaci&oacute;n <i>R&#8217;</i> &#91;14&#93;:</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq04.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Si el conjunto <i>BN<sub>B</sub></i> es vac&iacute;o   entonces el conjunto <i>X</i> es exacto respecto a la relaci&oacute;n <i>R&#8217;</i>.   En caso contrario, <sub><img src="/img/revistas/dyna/v77n162/a27eq022.gif"></sub>, el conjunto <i>X</i> es inexacto o aproximado con   respecto a <i>R&#8217;</i>. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El uso de relaciones de similitud ofrece mayores   posibilidades para la construcci&oacute;n de las aproximaciones; sin embargo, se tiene   que pagar por esta mayor flexibilidad, pues es m&aacute;s dif&iacute;cil desde el punto de   vista computacional buscar las aproximaciones relevantes en este espacio mayor &#91;15&#93;. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Usando las aproximaciones inferior y superior de   un concepto <i>X</i> se definen tres regiones para caracterizar el espacio de   aproximaci&oacute;n: la regi&oacute;n positiva que es la aproximaci&oacute;n <i>R&#8217;</i>-inferior, la regi&oacute;n l&iacute;mite   que es el conjunto <i>BN<sub>B</sub></i> y la regi&oacute;n negativa (<i>NEG</i>(<i>X</i>)) que es la diferencia entre el universo y la aproximaci&oacute;n <i>R&#8217;</i>-superior.   Los conjuntos <i>R&#8217;<sub>*</sub></i>(<i>X</i>) (denotado tambi&eacute;n   como <i>POS</i>(<i>X</i>)),<i> R&#8217;<sup>*</sup></i>(<i>X</i>), <i>BN<sub>B</sub></i>(<i>X</i>)<i> y NEG</i>(<i>X</i>) son las nociones principales de    la Teor&iacute;a de Conjuntos   Aproximados.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.2 Medidas   de inferencia cl&aacute;sicas de    la   Teor&iacute;a de los Conjuntos Aproximados    <br>   </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La Teor&iacute;a de los Conjuntos   Aproximados ofrece algunas medidas para analizar los sistemas de informaci&oacute;n. A   continuaci&oacute;n se muestran las principales. En las expresiones 5 a la 8 se emplean las   aproximaciones <i>R&#8217;</i>-inferior (<sub><img src="/img/revistas/dyna/v77n162/a27eq018.gif"></sub>) y <i>R&#8217;</i>-superior (<sub><img src="/img/revistas/dyna/v77n162/a27eq020.gif"></sub>) de <i>X</i>, las cuales est&aacute;n definidas en las expresiones 2   y 3 respectivamente.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Precisi&oacute;n de la   aproximaci&oacute;n. Un conjunto aproximado <i>X</i> puede ser caracterizado num&eacute;ricamente por el coeficiente   llamado precisi&oacute;n de la aproximaci&oacute;n, donde |<i>X</i>| denota la cardinalidad de <i>X</i>, <i>X</i>¹<sub><img src="/img/revistas/dyna/v77n162/a27eq024.gif"></sub>. Observe la expresi&oacute;n (5).</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq05.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Obviamente, 0£<i>a</i>(<i>X</i>)£1. Si <i>a</i>(<i>X</i>)=1, <i>X</i> es duro (exacto), si <i>a</i>(<i>X</i>)&lt;1, <i>X</i> es aproximado (vago, inexacto),   siempre respecto al conjunto de   atributos considerado &#91;16&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Calidad de la aproximaci&oacute;n. El coeficiente siguiente</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq06.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">expresa la proporci&oacute;n de objetos que pueden ser correctamente clasificados en   la clase <i>X</i>. Adem&aacute;s, 0 £<i>a</i>(<i>X</i>) £ <i>g</i> (<i>X</i>) £ 1, y <i>g</i> (<i>X</i>) =0 si y solo si <i>a</i> (<i>X</i>)=0, mientras <i>g</i> (<i>X</i>)=1   si y solo si <i>a</i> (<i>X</i>)=1 &#91;16&#93;.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Considerando que <i>X</i><sub>1</sub>,&#8230;,<i>X<sub>l</sub></i> son las clases del sistema de   decisi&oacute;n, se define la medida:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Calidad de la clasificaci&oacute;n. Este coeficiente   describe la inexactitud de las clasificaciones aproximadas:</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq07.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La medida calidad de la clasificaci&oacute;n expresa la   proporci&oacute;n de objetos que pueden estar correctamente clasificados en el   sistema. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Si ese coeficiente es igual a 1, entonces el   sistema de decisi&oacute;n es consistente, en otro caso es inconsistente &#91;16&#93;.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Funci&oacute;n de   pertenencia aproximada. Esta funci&oacute;n cuantifica el grado   de solapamiento relativo entre <i>R&#8217;</i>(<i>x</i>) (clase de similitud de <i>x</i>) y la clase a la cual el objeto <i>x</i> pertenece. Se define como   sigue:</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq08.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La funci&oacute;n de pertenencia aproximada puede ser   interpretada como una estimaci&oacute;n basada en frecuencias de <i>Pr</i>(<i>xÎX </i>|<i> x,   R&#8217;</i>(<i>x</i>)), es decir, la probabilidad   condicional de que el objeto <i>x</i> pertenezca al conjunto <i>X </i>&#91;17&#93;.</font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>4. CARACTERIZACI&Oacute;N   A PRIORI DE LOS CONJUNTOS DE ENTRENAMIENTO BASADA EN LAS MEDIDAS DE ESTIMACI&Oacute;N   DE LOS CONJUNTOS APROXIMADOS</b></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este ep&iacute;grafe se proponen nuevas medidas de la Teor&iacute;a de los   Conjuntos Aproximados y se desarrolla una propuesta para, a partir de estas,   predecir a priori la calidad de un conjunto de entrenamiento, y adem&aacute;s poder   seleccionar qu&eacute; tipo de clasificador supervisado ser&aacute; el m&aacute;s conveniente usar   en el proceso de aprendizaje: una red neuronal (Perceptron multicapa), un &aacute;rbol   de decisi&oacute;n (C4.5) o un m&eacute;todo de aprendizaje perezoso (k-NN).</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.1 Nuevas medidas para evaluar los sistemas de decisi&oacute;n, basadas en la Teor&iacute;a de los Conjuntos Aproximados.    <br> </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este ep&iacute;grafe se proponen variantes    generalizadas tanto para la precisi&oacute;n como para la calidad de la clasificaci&oacute;n    supervisada, porque en muchas aplicaciones los expertos pueden ponderar las    clases o se pueden seguir heur&iacute;sticas para definir en qu&eacute; medida las clases son   importantes.</font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Precisi&oacute;n generalizada de la clasificaci&oacute;n. En   esta medida por cada clase se da la posibilidad de considerar un peso que   influya en la evaluaci&oacute;n del sistema de decisi&oacute;n.</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq09.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <i>l</i> es la cantidad de clases del   sistema de decisi&oacute;n, <sub><img src="/img/revistas/dyna/v77n162/a27eq026.gif"></sub> se calcula como se   indica en la expresi&oacute;n 5. En la expresi&oacute;n 8 se defini&oacute; la funci&oacute;n de   pertenencia aproximada; el c&aacute;lculo de la media de esta funci&oacute;n aplicada a los   objetos de la clase, puede ser considerada como una medida de importancia de la   clase, es decir, el valor para <i>w</i>(<i>X<sub>i</sub></i>).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Calidad generalizada de la clasificaci&oacute;n. En esta   expresi&oacute;n tambi&eacute;n se permite ponderar por clases al promediar la calidad de   cada aproximaci&oacute;n. </font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq10.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <i>l</i> es la cantidad de clases del   sistema de decisi&oacute;n, <sub><img src="/img/revistas/dyna/v77n162/a27eq028.gif"></sub> se calcula como se   indica en la expresi&oacute;n 8. En &#91;18&#93; se propone la funci&oacute;n de compromiso aproximado, esta cuantifica en qu&eacute;   grado    la <i>R&#8217;</i>(<i>x</i>)   (clase de similitud de <i>x</i>) cubre la clase <i>X</i>, y est&aacute; dada por la   expresi&oacute;n 11. </font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq11.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La media del compromiso aproximado de los objetos   a la clase, puede ser considerada como un valor para ser asignado al peso de   cada clase (<i>w</i>(<i>X<sub>i</sub></i>)), en la   expresi&oacute;n 12. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En las expresiones 9 y 10<i>, w(X<sub>i</sub></i>)   es el peso de la clase <i>X<sub>i</sub></i> y es un valor entre 0 y 1, este   valor puede ser definido por los expertos. El hecho de considerar la media de   la pertenencia aproximada y el compromiso aproximado por clases,   respectivamente, constituye una manera de dar valor a estos <i>w</i>(<i>X<sub>i</sub></i>). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Resulta interesante no solo considerar los resultados   experimentales de medidas que describen a los datos por clases, sino tambi&eacute;n   tener una manera de cuantificar el comportamiento del conjunto de datos de   manera general. Por tal motivo, se propone el coeficiente de aproximaci&oacute;n   general, definido por la expresi&oacute;n 12. Este coeficiente muestra una proporci&oacute;n   entre la cantidad de objetos que pudieran ser bien clasificados (aquellos que   pertenecen a la aproximaci&oacute;n inferior de las clases) y la cantidad de objetos   que pudieran o no pertenecer a las clases del sistema de decisi&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Coeficiente de aproximaci&oacute;n general. Se eval&uacute;a la   calidad del sistema de informaci&oacute;n sin diferenciar por clases.</font></p>     <p><img src="/img/revistas/dyna/v77n162/a27eq12.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <i>l</i> es la cantidad de clases del sistema de decisi&oacute;n, <i>R&#8217;<sub>*</sub></i>(<i>X<sub>i</sub></i>)   es la aproximaci&oacute;n inferior (descrita en la expresi&oacute;n 2) y <i>R&#8217;<sup>*</sup></i>(<i>X<sub>i</sub></i>)   su aproximaci&oacute;n superior (descrita en la expresi&oacute;n 3).</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.2 Estudio experimental de la relaci&oacute;n entre las medidas de inferencia y el desempe&ntilde;o de los clasificadores    <br> </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el estudio experimental se seleccionaron los    conjuntos de datos siguientes: Balance-Scale, Breast-Cancer-Wisconsin, Bupa    (Liver Disorders), Dermatology, E-Coli, Heart-Disease (Hungarian), Iris,    Lung-Cancer, Monks-1, Pima-Indians-Diabetes, Promoter-Gene-Sequence,    Tic-Tac-Toe, Wine Recognition, Yeast, Zoo, Glass, Hayes-Roth, Soybean,    Ionosphere, Page-blocks, Postoperative, Waveform, Credit-Screening, Hepatitis y Lymphography. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El esquema siguiente de estudio experimental se   aplic&oacute; a cada conjunto de datos estudiado:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">1. Formaci&oacute;n de muestras de entrenamiento y   control.    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se obtuvieron los conjuntos de entrenamiento y   control, siguiendo el principio de validaci&oacute;n cruzada, se selecciona el 75% de   los objetos para el entrenamiento y el 25%, para conjunto control. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">2. Proceso de clasificaci&oacute;n supervisada.    ]]></body>
<body><![CDATA[<br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se realiz&oacute; el proceso de clasificaci&oacute;n   supervisada a trav&eacute;s de la herramienta Weka, espec&iacute;ficamente con los   clasificadores supervisados k-Vecinos m&aacute;s Cercanos (IBK), red neuronal   Perceptron multicapa y C4.5 (J48). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">3. C&aacute;lculo de las Medidas de Inferencia.    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para cada conjunto de entrenamiento se calcularon   las medidas: Precisi&oacute;n de la aproximaci&oacute;n (expresi&oacute;n 5), Calidad de la   aproximaci&oacute;n (expresi&oacute;n 6), Calidad de la clasificaci&oacute;n (expresi&oacute;n 7),   Precisi&oacute;n generalizada de la clasificaci&oacute;n (expresi&oacute;n 9), Calidad generalizada   de la clasificaci&oacute;n (expresi&oacute;n 10) y Coeficiente de aproximaci&oacute;n general   (expresi&oacute;n 12), descritas en los ep&iacute;grafes 3 y 4. El peso (<i>w</i>(<i>X<sub>i</sub></i>))   que se utiliz&oacute; para calcular las medidas definidas en las expresiones 9 y 10   fueron la media de la pertenencia aproximada por clases y la media del   compromiso aproximado por clases, respectivamente. Se implement&oacute; el sistema   MIRST1.0 que permite el c&aacute;lculo de estas medidas de inferencia. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">4. C&aacute;lculo de correlaciones estad&iacute;sticas    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con ayuda del SPSS 13.0 se buscan los   coeficientes de Correlaci&oacute;n de Pearson entre las medidas de inferencia   descritas en las expresiones 7, 8 y el desempe&ntilde;o por clases de los   clasificadores; as&iacute; como los coeficientes de correlaci&oacute;n entre las medidas   descritas en las expresiones 7, 9, 10, 12 y los resultados del desempe&ntilde;o   general de la clasificaci&oacute;n supervisada. Se llega a coeficientes de correlaci&oacute;n   en todos los casos cercanos a 1, con una significaci&oacute;n bilateral menor que   0.01, con lo que se puede asegurar que el coeficiente de correlaci&oacute;n es   significativo (<i>p</i>&lt;0.01). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.3</b> <b>Generaci&oacute;n del conocimiento a   partir de las medidas de inferencia usando m&eacute;todos de aprendizaje automatizado.    <br>   </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Resulta interesante poder inferir conocimiento a   partir de estos resultados, es decir, que para un determinado conjunto de   entrenamiento, sea posible decidir cu&aacute;l clasificador supervisado (entre k-NN,   MLP y C4.5) es m&aacute;s conveniente aplicar y poder adem&aacute;s, dar una valoraci&oacute;n   cualitativa del resultado de la precisi&oacute;n general que arrojar&aacute; dicho   clasificador para ese conjunto de entrenamiento (baja, media, alta, muy alta).   Para esto se ha utilizado el generador de reglas C4.5 y adem&aacute;s una red   Perceptron multicapa, y se comparan los resultados arrojados por ambos. Adem&aacute;s,   una vez que se haya seleccionado el clasificador supervisado id&oacute;neo para un   conjunto de entrenamiento determinado, se puede inferir el valor de su   precisi&oacute;n, a trav&eacute;s del m&eacute;todo estimador de funciones k-Vecinos m&aacute;s Cercanos   (k-NN).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Construcci&oacute;n de conjuntos de datos para el   entrenamientoPara esto se crearon seis nuevos conjuntos de datos, dos   correspondientes a cada clasificador supervisado estudiado: un conjunto de   datos con los valores de la precisi&oacute;n discretizados y otro con los valores num&eacute;ricos   de la precisi&oacute;n. Estos conjuntos de datos tendr&aacute;n cuatro atributos predictores,   representados por las medidas: Calidad de la clasificaci&oacute;n, Precisi&oacute;n   generalizada de la clasificaci&oacute;n, Calidad generalizada de la clasificaci&oacute;n y   Coeficiente de Aproximaci&oacute;n General, todos con valores entre cero y uno. El   atributo objetivo (clase), para los tres conjuntos de datos con la precisi&oacute;n   discretizada, tendr&aacute; los valores:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A<b>-&gt;</b>&quot;No aplicable, precisi&oacute;n muy baja&#8221;    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">B<b>-&gt;</b>&quot;Aplicable, precisi&oacute;n baja&#8221;    ]]></body>
<body><![CDATA[<br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">C<b>-&gt;</b>&quot;Aplicable, precisi&oacute;n media&#8221;    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">D<b>-&gt;</b>&quot;Aplicable, precisi&oacute;n alta&#8221;    <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">E<b>-&gt;</b>&quot;Aplicable, precisi&oacute;n muy alta&#8221; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para poder categorizar la precisi&oacute;n de los clasificadores   del estudio en A, B, C, D y E, se calcularon los percentiles de la precisi&oacute;n de   cada clasificador a trav&eacute;s del SPSS 13.0. De esta manera se asociaron los   valores de la precisi&oacute;n a las diferentes categor&iacute;as seg&uacute;n:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A<b>-&gt;</b>valores   inferiores al 20 percentil    <br>   B<b>-&gt;</b>valores   entre el 20 y 40 percentil    <br>   C<b>-&gt;</b>valores   entre el 40 y 60 percentil    <br>   D<b>-&gt;</b>valores   entre el 60 y 80 percentil    <br>   E<b>-&gt;</b>valores   mayores que el 80 percentil</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aqu&iacute; se pueden aplicar otras t&eacute;cnicas de   discretizaci&oacute;n para categorizar la precisi&oacute;n del clasificador en A, B, C, D, E,   por ejemplo el m&eacute;todo de dicretizaci&oacute;n basado en la entrop&iacute;a, discretizaci&oacute;n   basada en el error &#91;19&#93;.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se construyeron los conjuntos de datos a partir   de los resultados de las medidas de inferencia y la precisi&oacute;n de los   clasificadores. Cada conjunto de datos est&aacute; formado por 250 ejemplos, pues a   cada uno de los 25 conjuntos de datos con los cuales se realiz&oacute; el estudio, se   le dividi&oacute; aleatoriamente en diez muestras de entrenamiento y prueba.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Generaci&oacute;n de reglas de forma automatizada    <br>   A trav&eacute;s del m&eacute;todo C4.5 se realiza el proceso de   clasificaci&oacute;n supervisada, con el objetivo de determinar, para un nuevo   conjunto de datos (nuevo ejemplo), una valoraci&oacute;n cualitativa de la precisi&oacute;n   que obtendr&iacute;an los clasificadores que se estudiaron. Aqu&iacute; se utilizan para el   entrenamiento los tres conjuntos de datos con los valores discretos de la   precisi&oacute;n. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados del desempe&ntilde;o del C4.5 para   estimar la precisi&oacute;n de los clasificadores a partir de las medidas propuestas,   se muestran en la <a href="#tab01">tabla 1</a>. Estos son los resultados de aplicar una validaci&oacute;n   cruzada para diez muestras de prueba.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab01"></a>Tabla 1.</b> Medidas de desempe&ntilde;o general al usar el m&eacute;todo   C4.5    <br>   <b>Table 1.</b> Measures of general performance obtained using C4.5 method</font>    <br>   <img src="/img/revistas/dyna/v77n162/a27tab01.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Clasificaci&oacute;n supervisada usando una red neuronal   Perceptron multicapaSe construye una red neuronal con cuatro neuronas en la capa de entrada, una capa oculta y cinco   neuronas en la capa de salida, una para cada categor&iacute;a. De esta manera se tiene   una red neuronal que se entrena con tres conjuntos de datos (uno para cada clasificador del estudio con el atributo   objetivo discretizado (clase)), capaz de decidir dado un nuevo conjunto de   entrenamiento si es aplicable o no a cada clasificador, y en caso de ser   aplicable, adem&aacute;s da una valoraci&oacute;n de la precisi&oacute;n que se obtendr&aacute; (baja,   media, alta, muy alta). El desempe&ntilde;o de esta red neuronal para la prueba de   validaci&oacute;n cruzada (diez particiones) se muestra en la <a href="#tab02">tabla 2</a>.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab02"></a>Tabla 2.</b> Medidas de desempe&ntilde;o general al usar el   Perceptron Multicapa    <br>   <b>Table 2.</b> Measures of general performance obtained using the Multilayer   Perceptron</font>    ]]></body>
<body><![CDATA[<br>   <img src="/img/revistas/dyna/v77n162/a27tab02.gif"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Cuando se presenta un nuevo conjunto de   entrenamiento, es decir un nuevo ejemplo, para predecir a priori el   clasificador id&oacute;neo a aplicar, se procede seg&uacute;n los pasos siguientes:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P1. Se particiona aleatoriamente el nuevo ejemplo en conjunto de   entrenamiento (75%) y prueba (25%), esto se realiza diez veces y de esta forma   se obtienen diez conjuntos de entrenamiento y diez de prueba. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P2. A cada uno de los diez conjuntos de entrenamiento, obtenidos en el   paso P1 se le calculan las medidas: Calidad de la clasificaci&oacute;n, Precisi&oacute;n   generalizada de la clasificaci&oacute;n, Calidad generalizada de la clasificaci&oacute;n y   Coeficiente de Aproximaci&oacute;n General. Se obtiene para cada medida el valor   promedio de los diez resultados. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P3. El nuevo ejemplo ahora est&aacute; descrito por cuatro atributos asociados a   las medidas, cuyos valores son los resultados de las medias obtenidas en el   paso P2.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P4. Se determina para cada clasificador (k-NN, MLP, C4.5) la calidad de la   precisi&oacute;n seg&uacute;n las clases:</font></p>     <blockquote>       <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A<b>-&gt;</b>&quot;No aplicable, precisi&oacute;n muy baja&#8221;    <br>     B<b>-&gt;</b> &quot;Aplicable, precisi&oacute;n baja&#8221;    <br>     C<b>-&gt;</b> &quot;Aplicable, precisi&oacute;n media&#8221;    ]]></body>
<body><![CDATA[<br>     D<b>-&gt;</b> &quot;Aplicable, precisi&oacute;n alta&#8221;    <br>     E<b>-&gt;</b>&quot;Aplicable, precisi&oacute;n muy alta&#8221; </font></p> </blockquote>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Esto puede realizarse a trav&eacute;s del C4.5 o el   Perceptron multicapa, ambos entrenados con los conjuntos de datos con los   valores discretos de la precisi&oacute;n de los clasificadores. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P5. Se escoge como clasificador id&oacute;neo aquel que seg&uacute;n el paso P4 le   corresponda mejor valor de la clase, en el orden (E, D, C, B, A).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Estimaci&oacute;n del valor de la precisi&oacute;n del   clasificador m&aacute;s apropiado Luego de elegir el clasificador con el que se   obtendr&aacute; m&aacute;s alta precisi&oacute;n para un conjunto de entrenamiento dado, se estima   este valor a partir de los conjuntos de datos con los valores continuos de la   precisi&oacute;n de los clasificadores, a trav&eacute;s del m&eacute;todo k-NN. Se calcula el valor   de <i>k</i> &oacute;ptimo y se obtiene un valor aproximado de la precisi&oacute;n del   clasificador seleccionado. Los resultados obtenidos despu&eacute;s de realizar una   validaci&oacute;n cruzada (diez muestras de prueba) se pueden observar en la <a href="#tab03">tabla 3</a>.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab03" id="tab03"></a>Tabla 3.</b> Medidas de desempe&ntilde;o   general al usar el m&eacute;todo k-NN    <br>   <b>Table 3.</b> Measures of general performance obtained using k-NN method</font>    <br>   <img src="/img/revistas/dyna/v77n162/a27tab03.gif"></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>5. CONCLUSIONES</b></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las medidas de inferencia basadas en la Teor&iacute;a de los   Conjuntos Aproximados: Calidad de la clasificaci&oacute;n (medida cl&aacute;sica), as&iacute; como   Precisi&oacute;n generalizada de la clasificaci&oacute;n, Calidad generalizada de la   clasificaci&oacute;n y el Coeficiente de aproximaci&oacute;n general, las cuales se refieren   al desempe&ntilde;o de todo el sistema de decisi&oacute;n, est&aacute;n altamente correlacionadas   con el desempe&ntilde;o general de los clasificadores supervisados tales como el Perceptron   multicapa, </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">C4.5 y k-NN. De igual forma, est&aacute;n altamente   correlacionadas las medidas Calidad de la aproximaci&oacute;n y Precisi&oacute;n de la   aproximaci&oacute;n, las cuales hacen una particularizaci&oacute;n por clases, con el   desempe&ntilde;o por clases de los clasificadores antes mencionados.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La propuesta de construir conjuntos de datos de   entrenamiento a partir de los resultados de las medidas de inferencia de la RST y los de la precisi&oacute;n de   clasificadores supervisados (Perceptron multicapa, k-NN, C4.5), result&oacute; exitosa   para la generaci&oacute;n de conocimiento, obteni&eacute;ndose buenos desempe&ntilde;os en la   clasificaci&oacute;n supervisada a la hora de inferir a priori la precisi&oacute;n que se   obtendr&aacute; con un nuevo conjunto de entrenamiento. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Todo lo anterior muestra que el empleo de la Teor&iacute;a de los   Conjuntos Aproximados permite la construcci&oacute;n de algoritmos para resolver de   forma eficiente diversas tareas en el campo del aprendizaje automatizado.</font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>REFERENCIAS</b></font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>&#91;1&#93;</b> RUIZ, R., de atributos para datos de gran dimensionalidad, in Departamento de Lenguajes y Sistemas Inform&aacute;icos. 2006, Universidad de Sevilla: Sevilla.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000149&pid=S0012-7353201000020002700001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;2&#93;</b> PAWLAK, Z., ROUGH SETS. International journal of Computer and Information Sciences, 1982. 11: p. 341-356.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000150&pid=S0012-7353201000020002700002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;3&#93;</b> CHIN, K.S., J. Liang, and C. Dang. Rough Set Data Analysis Algorithms for Incomplete Information Systems. in Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing. 9th International Conference, RSFDGRC2003. 2003. Chongqing, China.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000151&pid=S0012-7353201000020002700003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;4&#93;</b> DJOUADI, A. The quality of training sets estimates of the Bhattacharyya Coefficient. Trans. On Pattern Recognition analysis and Machine learning 12(1): 92-97. 1990     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000152&pid=S0012-7353201000020002700004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;5&#93;</b> FENG, C. AND D. MICHIE. STATLOG'S ML Algorithm. Machine Learning, Neural and Statistical Classification. D. Michie, D. J. Spiegelhalter and C. C. Taylor: 65-77. 1994     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000153&pid=S0012-7353201000020002700005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;6&#93;</b> MICHIE, D., D. J. Spiegelhalter, et al. The Statlog Project. Machine Learning, Neural and Statistical Classification. D. Michie, D. J. Spiegelhalter and C. C. Taylor: 4. 1994     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000154&pid=S0012-7353201000020002700006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;7&#93;</b> BEYNON, M. J. Degree of Dependency and Quality of Classification in the Extended Variable Precision Rough Sets Model. Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing. 9th International Conference, RSFDGRC2003, Chongqing, China. 2003     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000155&pid=S0012-7353201000020002700007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;8&#93;</b> CABALLERO, Y., R. BELLO, et al. Estudio de conjuntos de entrenamientos para redes tipo MLP usando medidas de la teor&iacute;a de los conjuntos aproximados. I Simposio Iberoamericano de Inteligencia Artificial dentro de Inform&aacute;tica'2004, La Habana. 2004     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000156&pid=S0012-7353201000020002700008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;9&#93;</b> PARSONS, S., Current approaches to handling imperfect information in data and knowledges bases. IEEE Trans. On knowledge and data enginnering, 1996. 8(3).     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000157&pid=S0012-7353201000020002700009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><br>   <b>&#91;10&#93;</b> BAZAN, J., et al. A View on Rough Set Concept Approximations. in Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing. 9th International Conference, RSFDGRC2003. 2003. Chongqing, China.     <!-- ref --><br>   <b>&#91;11&#93;</b> KOMOROWSKI, J. and Z. Pawlak, Rough Sets: A tutorial. Rough Fuzzy Hybridization: A new trend in decision-making. Springer, 1999: p. 3-98.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000159&pid=S0012-7353201000020002700011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;12&#93;</b> SLOWINSKI, R. and D. Vanderpooten, Similarity relation as a basis for rough approximations, in Advances in Machine Intelligence & Soft-Computing. 1997. p. 17-33.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000160&pid=S0012-7353201000020002700012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;13&#93;</b> SKOWRON, A. and J. Stepaniuk. Intelligent systems based on rough set approach. in International Workshop Rough Sets. State of the Art and Perspectives. 1992.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000161&pid=S0012-7353201000020002700013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;14&#93;</b> DEOGUN, J.S. Exploiting upper approximations in the rough set methodology. in First International Conference on Knowledge Discovery and Data Mining. 1995. Canada.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000162&pid=S0012-7353201000020002700014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;15&#93;</b> PAL, S.K. and A. Skowron, Rough Fuzzy Hybridization: A New Trend in Decision-Making, ed. S. Springer-Verlag. 1999.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000163&pid=S0012-7353201000020002700015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;16&#93;</b> SKOWRON, A. New directions in Rough Sets, Data Mining, and Granular Soft Computing. in 7th International Workshop (RSFDGRC'99), Yamaguchi, Japan. 1999. Lecture Notes in Artificial Intelligence 1711.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000164&pid=S0012-7353201000020002700016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;17&#93;</b> GRABOWSKI, A., Basic Properties of Rough Sets and Rough Membership Function. Journal of Formalized Mathematics, 2003. 15.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000165&pid=S0012-7353201000020002700017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;18&#93;</b> CABALLERO, Y., et al. New Measures for Evaluating Decision Systems using Rough Set Theory: The Application in Seasonal Weather Forecasting. in Third International ICSC Symposium on Information Technologies in Environmental Engineering (ITEE'07). 2007. Carl von Ossietzky Universität Oldenburg. Alemania: Springer Verlag.     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000166&pid=S0012-7353201000020002700018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>&#91;19&#93;</b> WITTEN, I. and E. Frank, Transformation: Engineering the input and output, in Data Mining. Practical Machine Learning Tools and Techniques, I. Witten and E. Frank, Editors. 2005. p. 296-304. </font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000167&pid=S0012-7353201000020002700019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RUIZ]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[de atributos para datos de gran dimensionalidad]]></source>
<year>2006</year>
<publisher-loc><![CDATA[Sevilla ]]></publisher-loc>
<publisher-name><![CDATA[Universidad de Sevilla]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PAWLAK]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[ROUGH SETS]]></article-title>
<source><![CDATA[International journal of Computer and Information Sciences]]></source>
<year>1982</year>
<volume>11</volume>
<page-range>341-356</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CHIN]]></surname>
<given-names><![CDATA[K.S.]]></given-names>
</name>
<name>
<surname><![CDATA[Liang]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Dang]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rough Set Data Analysis Algorithms for Incomplete Information Systems]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[9 Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing]]></conf-name>
<conf-date>2003</conf-date>
<conf-loc>Chongqing </conf-loc>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DJOUADI]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The quality of training sets estimates of the Bhattacharyya Coefficient.]]></article-title>
<source><![CDATA[Trans. On Pattern Recognition analysis and Machine learning]]></source>
<year>1990</year>
<volume>12</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>92-97</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FENG]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[MICHIE]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[STATLOG'S ML Algorithm]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Michie]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[D. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[C. C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Machine Learning, Neural and Statistical Classification]]></source>
<year>1994</year>
<page-range>65-77</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MICHIE]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[D. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Statlog Project]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Michie]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[D. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[C. C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Machine Learning, Neural and Statistical Classification]]></source>
<year>1994</year>
<volume>4</volume>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BEYNON]]></surname>
<given-names><![CDATA[M. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Degree of Dependency and Quality of Classification in the Extended Variable Precision Rough Sets Model]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[9 Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing]]></conf-name>
<conf-date>2003</conf-date>
<conf-loc>Chongqing </conf-loc>
</nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CABALLERO]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Estudio de conjuntos de entrenamientos para redes tipo MLP usando medidas de la teoría de los conjuntos aproximados.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[I Simposio Iberoamericano de Inteligencia Artificial dentro de Informática'2004,]]></conf-name>
<conf-date>2004</conf-date>
<conf-loc>La Habana </conf-loc>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PARSONS]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<source><![CDATA[Current approaches to handling imperfect information in data and knowledges bases. IEEE Trans. On knowledge and data enginnering]]></source>
<year>1996</year>
<volume>8</volume>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BAZAN]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A View on Rough Set Concept Approximations]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[9 Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing]]></conf-name>
<conf-date>2003</conf-date>
<conf-loc>Chongqing </conf-loc>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KOMOROWSKI]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Pawlak]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rough Sets:: A tutorial]]></article-title>
<source><![CDATA[Rough Fuzzy Hybridization: A new trend in decision-making]]></source>
<year>1999</year>
<page-range>3-98</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SLOWINSKI]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Vanderpooten]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Similarity relation as a basis for rough approximations]]></article-title>
<source><![CDATA[Advances in Machine Intelligence & Soft-Computing]]></source>
<year>1997</year>
<page-range>17-33</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SKOWRON]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Stepaniuk]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Intelligent systems based on rough set approach]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[ International Workshop Rough Sets. State of the Art and Perspectives]]></conf-name>
<conf-date>1992</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DEOGUN]]></surname>
<given-names><![CDATA[J.S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Exploiting upper approximations in the rough set methodology]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[First International Conference on Knowledge Discovery and Data Mining]]></conf-name>
<conf-date>1995</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PAL]]></surname>
<given-names><![CDATA[S.K.]]></given-names>
</name>
<name>
<surname><![CDATA[Skowron]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Rough Fuzzy Hybridization:: A New Trend in Decision-Making]]></source>
<year>1999</year>
<publisher-name><![CDATA[ed. S. Springer-Verlag]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SKOWRON]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[New directions in Rough Sets, Data Mining, and Granular Soft Computing]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<conf-name><![CDATA[7 International Workshop (RSFDGRC'99)]]></conf-name>
<conf-date>1999</conf-date>
<conf-loc>Yamaguchi </conf-loc>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GRABOWSKI]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Basic Properties of Rough Sets and Rough Membership Function]]></article-title>
<source><![CDATA[Journal of Formalized Mathematics]]></source>
<year>2003</year>
<numero>15</numero>
<issue>15</issue>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CABALLERO]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
</person-group>
<source><![CDATA[New Measures for Evaluating Decision Systems using Rough Set Theory:: The Application in Seasonal Weather Forecasting.]]></source>
<year></year>
<conf-name><![CDATA[ Third International ICSC Symposium on Information Technologies in Environmental Engineering (ITEE'07).]]></conf-name>
<conf-date>2007</conf-date>
<conf-loc>Springer Verlag </conf-loc>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WITTEN]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Frank]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Transformation:: Engineering the input and output, in Data Mining]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Witten]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Frank]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Practical Machine Learning Tools and Techniques]]></source>
<year>2005</year>
<page-range>296-304</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
