<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0012-7353</journal-id>
<journal-title><![CDATA[DYNA]]></journal-title>
<abbrev-journal-title><![CDATA[Dyna rev.fac.nac.minas]]></abbrev-journal-title>
<issn>0012-7353</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional de Colombia]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0012-73532011000500003</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[APRENDIZAJE SUPERVISADO PARA LA DISCRIMINACIÓN Y CLASIFICACIÓN DIFUSA]]></article-title>
<article-title xml:lang="en"><![CDATA[SUPERVISED LEARNING FOR FUZZY DISCRIMINATION AND CLASSIFICATION]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[SOTO]]></surname>
<given-names><![CDATA[CARLOS]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[JIMÉNEZ]]></surname>
<given-names><![CDATA[CLAUDIA]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Tecnológico Metropolitano ITM  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Nacional de Colombia  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>10</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>10</month>
<year>2011</year>
</pub-date>
<volume>78</volume>
<numero>169</numero>
<fpage>26</fpage>
<lpage>33</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0012-73532011000500003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0012-73532011000500003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0012-73532011000500003&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El objetivo del presente artículo es proponer un nuevo método de análisis discriminante difuso, que hace uso de la estrategia de aprendizaje supervisado y utiliza la distancia euclidiana como medida de disimilitud. Las fórmulas que se proponen permiten resolver problemas de discriminación y clasificación de objetos en categorías que no pueden ser definidas con precisión pues tienen algún grado de solapamiento. Se utiliza una base de datos de referencia ampliamente utilizada en Reconocimiento de Patrones para ilustrar el método propuesto. Se presentan las superficies resultantes de graficar las funciones de pertenencia de categorías difusas para varios ejemplos. Luego, se compara el método propuesto con el discriminante lineal de Fisher para mostrar que la curva de nivel con grado de pertenencia 0.5 coincide con el discriminante lineal de Fisher, en análisis para dos categorías. Finalmente, se concluye que la técnica propuesta es fácil de aplicar y eficiente computacionalmente.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The objective of this paper is to propose a new method of fuzzy discriminant analysis, which makes use of supervised learning strategy and uses the Euclidean distance as dissimilarity measure. The proposed formulas can solve problems of discrimination and classification of objects in categories which cannot be defined precisely because they have some overlapping degree. In order to illustrate the proposed method, we used a well-known reference database in pattern recognition. We presented the surfaces of membership functions for some examples. Additionally, the method proposed was compared with the Fisher's proposal for showing that the contour plot of 0.5 membership degree coincide with the discriminant linear model when two categories are considered. Finally, we concluded that the technique proposed is easy to implement and computationally efficient.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Discriminación y Clasificación Difusa]]></kwd>
<kwd lng="es"><![CDATA[Análisis Discriminante Difuso]]></kwd>
<kwd lng="es"><![CDATA[Aprendizaje Supervisado]]></kwd>
<kwd lng="es"><![CDATA[Lógica Difusa, Minería de Datos.]]></kwd>
<kwd lng="en"><![CDATA[Fuzzy Discrimination and Classification]]></kwd>
<kwd lng="en"><![CDATA[Fuzzy Discriminant Analysis]]></kwd>
<kwd lng="en"><![CDATA[Supervised Learning, Fuzzy Logic]]></kwd>
<kwd lng="en"><![CDATA[Data Mining]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="center"><font size="4" face="Verdana, Arial, Helvetica, sans-serif"><b>APRENDIZAJE SUPERVISADO PARA LA DISCRIMINACI&Oacute;N Y CLASIFICACI&Oacute;N DIFUSA</b></font></p>     <p align="center"><i><font size="3"><b><font face="Verdana, Arial, Helvetica, sans-serif">SUPERVISED LEARNING FOR FUZZY DISCRIMINATION AND CLASSIFICATION</font></b></font></i></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>CARLOS SOTO</b>    <br>     <i>Docente Instituto Tecnol&oacute;gico Metropolitano ITM., <a href="mailto:cmsotoj@unal.edu.co">cmsotoj@unal.edu.co</a></i></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>CLAUDIA JIM&Eacute;NEZ</b>    <br>   <i>Universidad Nacional de Colombia, <a href="mailto:csjimene@unal.edu.co">csjimene@unal.edu.co</a></i></font></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Recibido para revisar Febrero 7 de 2011, aceptado Agosto 9 de 2011, versi&oacute;n final Agosto 29 de 2011</b></font></p>     <p>&nbsp;</p> <hr>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN:</b> El objetivo del presente art&iacute;culo es proponer un nuevo m&eacute;todo de an&aacute;lisis discriminante difuso, que hace uso de la estrategia de aprendizaje supervisado y utiliza la distancia euclidiana como medida de disimilitud. Las f&oacute;rmulas que se proponen permiten resolver problemas de discriminaci&oacute;n y clasificaci&oacute;n de objetos en categor&iacute;as que no pueden ser definidas con precisi&oacute;n pues tienen alg&uacute;n grado de solapamiento. Se utiliza una base de datos de referencia ampliamente utilizada en Reconocimiento de Patrones para ilustrar el m&eacute;todo propuesto. Se presentan las superficies resultantes de graficar las funciones de pertenencia de categor&iacute;as difusas para varios ejemplos. Luego, se compara el m&eacute;todo propuesto con el discriminante lineal de Fisher para mostrar que la curva de nivel con grado de pertenencia 0.5 coincide con el discriminante lineal de Fisher, en an&aacute;lisis para dos categor&iacute;as. Finalmente, se concluye que la t&eacute;cnica propuesta es f&aacute;cil de aplicar y eficiente computacionalmente.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>PALABRAS CLAVE:</b> Discriminaci&oacute;n y Clasificaci&oacute;n Difusa, An&aacute;lisis Discriminante Difuso, Aprendizaje Supervisado, L&oacute;gica Difusa, Miner&iacute;a de Datos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>ABSTRACT:</b> The objective of this paper is to propose a new method of fuzzy discriminant analysis, which makes use of supervised learning strategy and uses the Euclidean distance as dissimilarity measure. The proposed formulas can solve problems of discrimination and classification of objects in categories which cannot be defined precisely because they have some overlapping degree. In order to illustrate the proposed method, we used a well-known reference database in pattern recognition. We presented the surfaces of membership functions for some examples. Additionally, the method proposed was compared with the Fisher&rsquo;s proposal for showing that the contour plot of 0.5 membership degree coincide with the discriminant linear model when two categories are considered. Finally, we concluded that the technique proposed is easy to implement and computationally efficient.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>KEYWORDS: </b>Fuzzy Discrimination and Classification, Fuzzy Discriminant Analysis, Supervised Learning, Fuzzy Logic, Data Mining.</font></p> <hr>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>1. INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La diversidad y cantidad de problemas que requieren un an&aacute;lisis discriminante se incrementa d&iacute;a a d&iacute;a, y un n&uacute;mero significante de ellos, son problemas de clasificaci&oacute;n con categor&iacute;as que no pueden ser definidas precisamente y tienen alg&uacute;n grado de solapamiento (no son excluyentes). Para este tipo de problemas, las t&eacute;cnicas de clasificaci&oacute;n basadas en la l&oacute;gica de Boole (cierto, falso) presentan serias limitaciones dado que han sido dise&ntilde;adas para que un objeto s&oacute;lo pueda pertenecer a una y solo una clase, y no como lo admite la L&oacute;gica Difusa, que un objeto puede pertenecer a varias clases o categor&iacute;as, pero con cierto grado o parcialmente.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo que se propone utiliza la distancia euclidiana como medida de similitud, y el proceso para realizar la discriminaci&oacute;n difusa, parte de una muestra de aprendizaje con clasificaci&oacute;n convencional. El m&eacute;todo entrega: el grado de pertenencia de un objeto a cada una de las categor&iacute;as difusas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la literatura existen otras propuestas de an&aacute;lisis discriminante basado en la L&oacute;gica Difusa. En Chen et al. [1] se propone un an&aacute;lisis discriminante lineal difuso, que permite establecer un menor grado de importancia a las observaciones que se encuentran en la zona de solapamiento para hacer la clasificaci&oacute;n. En el a&ntilde;o 2006, Wu y Zhou extienden al m&eacute;todo anterior al utilizar funciones de densidad del n&uacute;cleo, lo que permite solucionar problemas linealmente no separables [2]. Entre otros m&eacute;todos a resaltar se encuentran: El K-Vecinos Difusos (en ingl&eacute;s, Fuzzy K-Nearest-Neighbor) [3]. En la literatura se ha reportado la aplicaci&oacute;n con &eacute;xito de K-Vecinos Difusos. A continuaci&oacute;n se presenta una breve comparaci&oacute;n con la t&eacute;cnica que se propone:</font></p> <ol>   <li class="dyna-normal"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El K-Vecinos Difuso es un m&eacute;todo local, el resultado de la clasificaci&oacute;n difusa de un objeto, s&oacute;lo es influenciado por los K objetos m&aacute;s cercanos, mientras que el resultado con el m&eacute;todo que se propone, se ve influenciado por todos los objetos de la muestra de aprendizaje, por lo tanto, es un m&eacute;todo global.</font></li>   <li class="dyna-normal"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El K-Vecinos Difuso es un m&eacute;todo computacionalmente menos eficiente, dado que, es necesario realizar c&aacute;lculos sobre la muestra de aprendizaje, tantas veces como objetos se deseen clasificar, mientras que el resultado con el m&eacute;todo que se propone, s&oacute;lo utiliza la muestra de aprendizaje una vez.</font></li>   <li class="dyna-normal"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo que se propone presenta cambios m&aacute;s graduales en la superficie de soluci&oacute;n difusa, que el m&eacute;todo K-Vecinos Difuso.</font></li>     </ol>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Finalmente, el famoso algoritmo de agrupamiento K-Medias Difuso (en ingl&eacute;s, Fuzzy K-Means) [4]. Este &uacute;ltimo, es un m&eacute;todo de aprendizaje no supervisado, por lo tanto, no requiere de una muestra de aprendizaje con clasificaci&oacute;n previa, mientras que el m&eacute;todo que se propone es un m&eacute;todo de aprendizaje supervisado. Por lo tanto, son m&eacute;todos que se aplican en condiciones diferentes.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A continuaci&oacute;n, se describen brevemente algunos conceptos de la L&oacute;gica Difusa. Luego, se presenta y aplica el m&eacute;todo propuesto utilizando la base de datos de referencia como muestra de aprendizaje. Esta base de datos ha sido ampliamente usada en diversos trabajos investigativos. Finalmente, se grafican las superficie de soluci&oacute;n para varios ejemplos.</font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>2. L&Oacute;GICA BORROSA</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La L&oacute;gica Borrosa o Difusa es la que admite una cierta incertidumbre entre la verdad o falsedad de sus proposiciones, a semejanza del raciocinio humano. En la teor&iacute;a cl&aacute;sica de conjuntos se determina la pertenencia o membres&iacute;a de un elemento por medio de la l&oacute;gica booleana: s&iacute; un objeto o elemento no pertenece a un conjunto, se le asigna un cero y s&iacute; el elemento pertenece, se le asigna un uno. La teor&iacute;a de conjuntos borrosos propone representar el grado de pertenencia por medio de un valor, en el intervalo cerrado cero y uno [5]. El grado de pertenencia de un elemento en un conjunto borroso no tiene un significado absoluto, su significado resulta de la comparaci&oacute;n con otros grados de pertenencia, en el mismo conjunto borroso [6].</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un conjunto borroso A en un Universo del Discurso U, se define como un conjunto de pares ordenados, este concepto se puede generalizar para elementos que pertenecen a un espacio multidimensional, sea B un conjunto borroso de elementos que pertenecen a un espacio num&eacute;rico multidimensional y se define como un conjunto de pares ordenados:</font></p>     <p><img src="img/revistas/dyna/v78n169/a03eq01.gif" width="367" height="49"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">D&oacute;nde: B representa al conjunto borroso, X representa un elemento en el espacio num&eacute;rico multidimensional, <img src="img/revistas/dyna/v78n169/a03eq14542.jpeg" alt="missing image file" /> representa el grado de pertenencia del elemento X, U representa el Universo del Discurso o dominio num&eacute;rico multidimensional, con el cual se caracterizan a los objetos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La L&oacute;gica Borrosa ha incursionado en varias &aacute;reas con gran &eacute;xito, los sistemas de control borroso son, sin duda, las aplicaciones m&aacute;s conocidas, pero tambi&eacute;n ha servido, en los intentos de flexibilizaci&oacute;n de los lenguajes artificiales con la representaci&oacute;n e interpretaci&oacute;n de los t&eacute;rminos vagos del lenguaje natural, dado que, permite representar la incertidumbre originada por la vaguedad o imprecisi&oacute;n de las palabras, por medio de funciones de pertenencia a los distintos conjuntos difusos que se consideren en un marco de cognici&oacute;n. Tambi&eacute;n, ha incursionado en la Miner&iacute;a de Datos en estudios de discriminaci&oacute;n y clasificaci&oacute;n difusa.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>3. AN&Aacute;LISIS DISCRIMINANTE DIFUSO PROPUESTO</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El objetivo b&aacute;sico de la discriminaci&oacute;n es reconocer las diferencias entre grupos de objetos y poder describirlas en forma gr&aacute;fica o algebraica para lograr un mejor entendimiento de un determinado entorno [7]. El m&eacute;todo que se propone permite realizar una discriminaci&oacute;n y clasificaci&oacute;n difusa, pero requiere de un conjunto de ejemplares que hayan sido clasificados convencionalmente, en otras palabras, en categor&iacute;as excluyentes. Este conjunto es llamado conjunto de entrenamiento o muestra de aprendizaje. Con base en los patrones que se encuentren, se determinan las categor&iacute;as a las cuales pertenecen los nuevos ejemplares, por esto, esta estrategia de reconocimiento es conocida como aprendizaje supervisado [7].</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo que se propone define tantas categor&iacute;as difusas o conjuntos borrosos como categor&iacute;as existentes en la muestra de aprendizaje. En este an&aacute;lisis discriminante difuso, la etiqueta que nombra una categor&iacute;a, pasa a hacer la etiqueta que nombra al conjunto borroso asociado a dicha categor&iacute;a. Definir un conjunto borroso implica determinar la expresi&oacute;n o f&oacute;rmula de c&aacute;lculo de la funci&oacute;n de pertenencia a la categor&iacute;a difusa. El m&eacute;todo propuesto se basa en establecer las funciones de pertenencia utilizando las distancias euclidianas como medida de similitud. En la discriminaci&oacute;n difusa se espera cumplir las siguientes restricciones:</font></p> <ol type="a">       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las funciones de pertenencia pueden tomar cualquier valor en el intervalo cerrado de cero a uno.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El grado de pertenencia de un objeto a una categor&iacute;a difusa determinada, ser&aacute; uno, s&iacute; el objeto en cuesti&oacute;n es centroide de la categor&iacute;a difusa.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El grado de pertenencia de un objeto a una categor&iacute;a difusa determinada, ser&aacute; cero, s&iacute; el objeto en cuesti&oacute;n es un centroide de cualquier otra categor&iacute;a difusa.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La suma de todos los grados de pertenencia de un objeto cualquiera, debe ser igual a uno (propiedad de complementariedad).</font></li>     </ol>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.1 Discriminaci&oacute;n con dos categor&iacute;as    <br> </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En esta secci&oacute;n, se presentan las f&oacute;rmulas que se proponen para calcular las funciones de pertenencia, para el caso de una clasificaci&oacute;n en dos categor&iacute;as difusas. La discriminaci&oacute;n difusa con dos categor&iacute;as requiere de una restricci&oacute;n adicional, y es que el grado de pertenencia ser&aacute; 0.5 a las dos categor&iacute;as difusas, s&iacute; el objeto a clasificar se encuentra a igual distancia de los dos centroides.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sea <img src="img/revistas/dyna/v78n169/a03eq14550.jpeg" alt="missing image file" /> el conjunto de vectores que representan a los elementos de la muestra de aprendizaje con clasificaci&oacute;n convencional, <img src="img/revistas/dyna/v78n169/a03eq14557.jpeg" alt="missing image file" /> representa al i-&eacute;simo vector multidimensional de la muestra de aprendizaje, donde cada dimensi&oacute;n corresponde a un atributo discriminante. Las etiquetas <img src="img/revistas/dyna/v78n169/a03eq14567.jpeg" alt="missing image file" /> y <img src="img/revistas/dyna/v78n169/a03eq14574.jpeg" alt="missing image file" /> representan a las categor&iacute;as 1 y 2 respectivamente.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El vector de medias aritm&eacute;ticas en un espacio multidimensional y se calcula, as&iacute;:</font></p>     <p><img src="img/revistas/dyna/v78n169/a03eq02.gif" width="373" height="76"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">D&oacute;nde: <img src="img/revistas/dyna/v78n169/a03eq14601.jpeg" alt="missing image file" /> representa al centro de masa o centriode de la categor&iacute;a <img src="img/revistas/dyna/v78n169/a03eq14608.jpeg" alt="missing image file" /> y <img src="img/revistas/dyna/v78n169/a03eq14615.jpeg" alt="missing image file" /> es el n&uacute;mero de objetos de la muestra de aprendizaje que pertenecen a la categor&iacute;a <img src="img/revistas/dyna/v78n169/a03eq14622.jpeg" alt="missing image file" />.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La distancia euclidiana entre el vector X que representa un objeto del Universo del Discurso y el vector <img src="img/revistas/dyna/v78n169/a03eq14629.jpeg" alt="missing image file" /> que representa al centroide de la categor&iacute;a <img src="img/revistas/dyna/v78n169/a03eq14638.jpeg" alt="missing image file" />, se calcula con la siguiente expresi&oacute;n:</font></p>     <p><img src="img/revistas/dyna/v78n169/a03eq03.gif" width="367" height="49"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Usando esta notaci&oacute;n para definir la distancia, las f&oacute;rmulas que se proponen para las funciones de pertenencia a cada categor&iacute;a difusa son las siguientes:</font></p>     <p><img src="img/revistas/dyna/v78n169/a03eq0405.gif" width="366" height="148"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En las f&oacute;rmulas anteriores, <img src="img/revistas/dyna/v78n169/a03eq14675.jpeg" alt="missing image file" /> y <img src="img/revistas/dyna/v78n169/a03eq14684.jpeg" alt="missing image file" /> representan los grados de pertenencia del objeto X a las categor&iacute;as difusas <img src="img/revistas/dyna/v78n169/a03eq14691.jpeg" alt="missing image file" /> y <img src="img/revistas/dyna/v78n169/a03eq14698.jpeg" alt="missing image file" /> respectivamente.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">De acuerdo con la restricci&oacute;n de complementariedad enunciada, se cumple que <img src="img/revistas/dyna/v78n169/a03eq14705.jpeg" alt="missing image file" />. Por lo tanto, las f&oacute;rmulas (4) y (5) se pueden simplificar, as&iacute;:</font></p>     ]]></body>
<body><![CDATA[<p><img src="img/revistas/dyna/v78n169/a03eq0607.gif" width="371" height="152"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>3.2 Discriminaci&oacute;n con m&aacute;s de dos categor&iacute;as    <br> </b></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la discriminaci&oacute;n difusa no es raro que se consideren m&aacute;s de dos categor&iacute;as difusas o conjuntos borrosos. Por lo tanto, se requiere plantear las f&oacute;rmulas para calcular las funciones de pertenencia a cada una de ellas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sea m es el n&uacute;mero de categor&iacute;as de la muestra de aprendizaje, <img src="img/revistas/dyna/v78n169/a03eq14731.jpeg" alt="missing image file" /> el conjunto de etiquetas que representan a cada una de las categor&iacute;as difusas. El centroide a cada una de las categor&iacute;as se calcula por medio de la formula (2) y las funciones de pertenencia a cada una de las categor&iacute;as difusas, se calculan con la siguiente formula:</font></p>     <p><img src="img/revistas/dyna/v78n169/a03eq08.gif" width="366" height="80"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la formula anterior, <img src="img/revistas/dyna/v78n169/a03eq14748.jpeg" alt="missing image file" /> es el grado de pertenencia de un objeto X a la k-&eacute;sima categor&iacute;a difusa. Se observa que s&iacute; existen s&oacute;lo dos categor&iacute;as difusas o conjuntos borrosos, la formula (8) coincide con las formulas (6) y (7).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La f&oacute;rmula (8) no garantiza que la suma de todos los grados de pertenencia, de un objeto X, sea igual a uno. Por lo anterior, se debe proceder a normalizar las funciones de pertenencia. La f&oacute;rmula general que se propone para calcular las funciones de pertenencia es:</font></p>     <p><img src="img/revistas/dyna/v78n169/a03eq09.gif" width="369" height="174"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La expresi&oacute;n anterior coincide con las formulas (6) y (7), cuando s&oacute;lo existen dos categor&iacute;as difusas, por ello, estas f&oacute;rmulas son una simplificaci&oacute;n de la expresi&oacute;n (9) cuando <img src="img/revistas/dyna/v78n169/a03eq14766.jpeg" alt="missing image file" />.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>4. RESULTADOS EXPERIMENTALES</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para ilustrar el m&eacute;todo de discriminaci&oacute;n y clasificaci&oacute;n difusa que se propone, se utiliza la base de datos Iris como muestra de aprendizaje. Esta base de datos contiene informaci&oacute;n sobre tres tipos de lirios: Setosa, Versicolor y Virginica. En total, son 150 registros con cuatro atributos num&eacute;ricos, dados en cent&iacute;metros: Longitud del S&eacute;palo, Ancho del S&eacute;palo, Longitud del P&eacute;talo y Ancho del P&eacute;talo. El quinto atributo es nominal y representa la especie de lirio [8]. Este conjunto de datos es probablemente uno de los m&aacute;s utilizados en el &aacute;rea de reconocimiento de patrones [9] y por eso es utilizado en el presente trabajo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#tab01">Tabla 1</a>, se muestra la media aritm&eacute;tica de cada uno de los atributos de la base de datos para cada especie de lirio, que sirven como estimaciones de los centroides o prototipos de cada categor&iacute;a.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="tab01"></a>Tabla 1.</b> Vectores con la media aritm&eacute;tica</font>    <br> <img src="img/revistas/dyna/v78n169/a03tab01.gif" width="359" height="135"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A continuaci&oacute;n, se aplica el m&eacute;todo de discriminaci&oacute;n difusa propuesto para dos y tres categor&iacute;as respectivamente. Finalmente, se realiza una comparaci&oacute;n con el discriminante lineal de Fisher con dos categor&iacute;as (Versicolor y Virginica).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.1 Ejemplo de clasificaci&oacute;n difusa con dos categor&iacute;as</b>    <br> </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para ilustrar el m&eacute;todo propuesto para la clasificaci&oacute;n difusa con dos categor&iacute;as, se seleccionaron los datos correspondientes a las categor&iacute;as: Versicolor y Virginica de la base de datos Iris, como muestra de aprendizaje. En este ejemplo, <img src="img/revistas/dyna/v78n169/a03eq14827.jpeg" alt="missing image file" /> ser&aacute; Versicolor y <img src="img/revistas/dyna/v78n169/a03eq14834.jpeg" alt="missing image file" /> ser&aacute; Virginica. Los centroides a estas categor&iacute;as se presentan en la segunda y tercer columna en la <a href="#fig01">Tabla 1</a> y corresponden a <img src="img/revistas/dyna/v78n169/a03eq14841.jpeg" alt="missing image file" /> y <img src="img/revistas/dyna/v78n169/a03eq14848.jpeg" alt="missing image file" /> respectivamente. El modelo resultante son las funciones de pertenencia multidimensional entrenadas, que corresponden a las formulas (6) y (7), estas expresiones permiten calcular el grado de pertenencia a las categor&iacute;as difusas Versicolor y Virginica respectivamente. Para las ilustraciones, se seleccionaron la longitud y el ancho del p&eacute;talo. En la <a href="#fig01">Figura 1</a>, se observa la superficie resultante de graficar la funci&oacute;n de pertenencia a la categor&iacute;a difusa Versicolor.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <b><a name="fig01"></a><img src="img/revistas/dyna/v78n169/a03fig01.gif" width="297" height="205">    <br> Figura 1. </b>Funci&oacute;n de pertenencia a la categor&iacute;a difusa Versicolor</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#fig02">Figura 2</a>, se observa la superficie resultante de graficar la funci&oacute;n de pertenencia a la categor&iacute;a difusa Virginica. En estas dos figuras, se observa que s&iacute; un objeto presenta un alto grado de pertenencia a la categor&iacute;a difusa Versicolor, entonces presenta un bajo grado de pertenencia a la categor&iacute;a difusa Virginica. Esta regla S&iacute;-Entonces estar&iacute;a definida por la complementariedad de las dos funciones de pertenencia.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <b><a name="fig02"></a><img src="img/revistas/dyna/v78n169/a03fig02.gif" width="300" height="218">    <br> Figura 2. </b>Funci&oacute;n de pertenencia a la categor&iacute;a difusa Virginica</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#fig03">Figura 3</a>, se observan las curvas de nivel o contornos obtenidos de la funci&oacute;n de pertenencia a la categor&iacute;a difusa Versicolor. Los contornos corresponden a los grados de pertenencia de {0.9, 0.8, 0.7, 0.6, 0.5, 0.4, 0.3, 0.2, 0.1} y dado que la suma de los grados de pertenencia a las dos categor&iacute;as difusas debe ser igual a uno, las curvas de contorno coinciden, mientras que la curva de nivel con grado de pertenencia a la categor&iacute;a difusa Versicolor es de 0.9, esta curva corresponde al contorno de 0.1 a la categor&iacute;a difusa Virginica. Las curvas de nivel con grado de pertenencia en el intervalo abierto (0.5, 1), generan una elipse que encierra al prototipo o centroide de la categor&iacute;a Versicolor, mientras que las curvas de nivel con grado de pertenencia en el intervalo abierto (0, 0.5), generan una elipse que encierra al centroide de la categor&iacute;a Virginica. Todos los puntos con grado de pertenencia de 0.5 generan una l&iacute;nea recta. Cualquier punto que coincida con esta l&iacute;nea tiene la propiedad de encontrarse a la misma distancia a cada uno de los dos centroides.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <b><a name="fig03"></a><img src="img/revistas/dyna/v78n169/a03fig03.gif" width="312" height="253">    <br> Figura 3.</b> Contornos de la funci&oacute;n de pertenencia a la categor&iacute;a Versicolor</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.2 Ejemplo de clasificaci&oacute;n difusa con tres categor&iacute;as</b>    <br> </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Utilizando todos los registros de la base de datos Iris, tambi&eacute;n se realiz&oacute; un an&aacute;lisis discriminante difuso, utilizando las tres especies: Setosa, Versicolor y Virginica. Los centros de masa o centroides para cada una de las categor&iacute;as se muestran en la <a href="#tab01">Tabla 1</a>. Para las ilustraciones, en este ejemplo, s&oacute;lo se utilizar&aacute;n los atributos: Longitud y ancho del p&eacute;talo. En las <a href="#fig04">Figuras 4</a>, <a href="#fig05">5</a> y <a href="#fig06">6</a>, se presentan las superficies resultantes de graficar las funciones de pertenencia a las categor&iacute;as difusas Setosa, Versicolor y Virginica respectivamente. En resumen, para clasificar un nuevo objeto, en este caso un lirio, se crea el vector X donde se incluyen todos los atributos usados en la discriminaci&oacute;n y se utiliza la formula (9), para calcular el grado de pertenencia de un lirio cualquiera a cada una de las categor&iacute;as difusas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo propuesto no preestablece una geometr&iacute;a para las funciones de pertenencia calculadas, esto se observa en las <a href="#fig04">Figuras 4</a>, <a href="#fig05">5</a> y <a href="#fig06">6</a>, donde las superficies resultantes de graficar las funciones de pertenencia a las categor&iacute;as difusas son muy diferentes entre s&iacute;.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <b><a name="fig04"></a><img src="img/revistas/dyna/v78n169/a03fig04.gif" width="292" height="215">    ]]></body>
<body><![CDATA[<br> Figura 4.</b> Funci&oacute;n de pertenencia a la categor&iacute;a difusa Setosa</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <b><a name="fig05"></a><img src="img/revistas/dyna/v78n169/a03fig05.gif" width="293" height="217">    <br> Figura 5.</b> Funci&oacute;n de pertenencia a la categor&iacute;a difusa Versicolor</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <b><a name="fig06"></a><img src="img/revistas/dyna/v78n169/a03fig06.gif" width="296" height="219">    <br> Figura 6.</b> Funci&oacute;n de pertenencia a la categor&iacute;a difusa Virginica</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>4.3 Comparaci&oacute;n con el discriminante lineal de Fisher</b>    <br> </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un discriminante lineal es aquel que genera l&iacute;neas, planos o hiperplanos que separa el Universo del Discurso en regiones, donde cada regi&oacute;n corresponde exclusivamente a una categor&iacute;a. Estos modelos son tambi&eacute;n conocidos como clasificadores lineales. En esta familia se encuentran: El discriminante lineal de Fisher, el Perceptr&oacute;n Simple, ADALINE, entre otros. En el a&ntilde;o de 1936, R. A. Fisher publica un art&iacute;culo sobre clasificaci&oacute;n taxon&oacute;mica [10], tiempo despu&eacute;s, la funci&oacute;n discriminante presentada por R. A. Fisher fue conocida con el nombre de an&aacute;lisis discriminante lineal de Fisher. Este discriminante es un m&eacute;todo muy eficiente de clasificaci&oacute;n y se ha aplicado con &eacute;xito en diversas &aacute;reas. Por su simplicidad y potencia, es una de las primeras t&eacute;cnicas a utilizar en problemas de clasificaci&oacute;n. En especial, cuando los atributos originales son mayoritariamente cuantitativos [9]. Una descripci&oacute;n detallada del discriminante lineal de Fisher se encuentra en [11], [12] y [13].</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se emplean los mismos datos utilizados en la secci&oacute;n 4.1 para aplicar el discriminante lineal de Fisher como modelo de clasificaci&oacute;n a las categor&iacute;as: Versicolor y Virginica. En la <a href="#fig087">Figura 7</a>, se muestra los datos utilizados y la l&iacute;nea de separaci&oacute;n generada por el discriminante lineal de Fisher. Para clasificar un nuevo objeto, en este caso un lirio, se puede utilizar la funci&oacute;n discriminante, o gr&aacute;ficamente, se observa la regi&oacute;n en la que se encuentra el objeto. Cuando los atributos que definen al objeto coinciden con la l&iacute;nea de separaci&oacute;n, el discriminante de Fisher no los clasificar&iacute;a en ninguna de ellas, lo que significa que los objetos se clasificar&iacute;an arbitrariamente.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <b><a name="fig087"></a><img src="img/revistas/dyna/v78n169/a03fig07.gif" width="312" height="236">    <br> Figura 7.</b> Discriminante lineal de Fisher para las categor&iacute;as: Versicolor y Virginica</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#fig08">Figura 8</a>, se superponen los contornos de la funci&oacute;n de pertenencia a la categor&iacute;a difusa Versicolor con la l&iacute;nea de separaci&oacute;n generada por el discriminante lineal de Fisher. En esta figura, se observa que la l&iacute;nea con grado de pertenencia de 0.5 a la categor&iacute;a difusa Versicolor coincide con la l&iacute;nea de separaci&oacute;n generada por el discriminante lineal de Fisher. Esta l&iacute;nea se distingue por el mayor grosor, en comparaci&oacute;n con los dem&aacute;s contornos.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><a name="fig08"></a><img src="img/revistas/dyna/v78n169/a03fig08.gif" width="340" height="264">    <br> Figura 8.</b> Contornos de la funci&oacute;n de pertenencia a la categor&iacute;a difusa Versicolor y discriminante lineal de Fisher</font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>5. CONCLUSIONES</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La t&eacute;cnica propuesta es una t&eacute;cnica de aprendizaje supervisado, que permite realizar un an&aacute;lisis discriminante difuso considerando diferentes niveles de granularidad o n&uacute;mero de categor&iacute;as difusas. El n&uacute;mero de categor&iacute;as difusas es establecido por el n&uacute;mero de categor&iacute;as que se identifiquen en la muestra de aprendizaje.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se ha mostrado que la t&eacute;cnica propuesta es f&aacute;cil de aplicar, por lo que se espera que sea muy eficiente computacionalmente. De hecho, s&oacute;lo utiliza una vez la muestra de aprendizaje, para calcular el vector de medias de cada categor&iacute;a. Este tipo c&aacute;lculo es relativamente r&aacute;pido en cualquier lenguaje de programaci&oacute;n. Y el resto, s&oacute;lo es aplicar la f&oacute;rmula (9), para calcular el grado de pertenencia de un objeto a cada una de las categor&iacute;as difusas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por otro lado, se ha mostrado la factibilidad t&eacute;cnica del m&eacute;todo de discriminaci&oacute;n difusa con su aplicaci&oacute;n a la base de datos Iris, utilizando dos y tres categor&iacute;as, en los ejemplos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Adem&aacute;s de eso, se ha mostrado que la distancia euclidiana se puede utilizar como medida de similitud para realizar clasificaciones difusas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por &uacute;ltimo, se ha mostrado que el conjunto de todos los puntos con grado de pertenencia de 0.5 para las funciones de pertenencia en el an&aacute;lisis discriminante difuso, genera una l&iacute;nea recta que coincide con el modelo generado por el an&aacute;lisis discriminante lineal de Fisher para una muestra de aprendizaje con dos categor&iacute;as.</font></p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><b><font size="3" face="Verdana, Arial, Helvetica, sans-serif">REFERENCIAS</font></b></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>[1]</b> Chen, Z. P., Jiang, j. H., Li, Y., Liang, Y.Z. and Yu, R.Q., Fuzzy linear discriminant analysis for chemical data sets. Chemometrics and Intelligent Laboratory Systems, 45 (1-2), pp. 295-302, 1999.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000105&pid=S0012-7353201100050000300001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[2]</b> Wu, X.H. and Zhou, J.J., Fuzzy discriminant analysis with kernel methods. Pattern Recognition, 39, pp. 2236-2239, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000106&pid=S0012-7353201100050000300002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[3]</b> Kuske, M., Rubio, R., Romain, A.C., Nicolas, J., Marco, S., Fuzzy k-NN applied to moulds detection. Sensors and Actuators, B 106, pp. 52-60, 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000107&pid=S0012-7353201100050000300003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[4]</b> Bezdek, J.C., Keller, J., Krisnapuram, R. and Pal, N.R., Fuzzy models and algorithms for pattern recognition and image processing. New York: Kluwer Academic Publishers, 1999. ISBN 0-7923-8521-7.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000108&pid=S0012-7353201100050000300004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[5]</b> Zadeh, L.A., Fuzzy Sets. Information and Control. Vol. 8, pp. 338-353, 1965.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000109&pid=S0012-7353201100050000300005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[6]</b> Jang, J.S.R., Sun, C.T. and Mizutani, E., Neuro-Fuzzy and Soft Computing: A Computational Approach to Learning and Machine Intelligence. Estados Unidos. Ed. Prentice Hall. 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000110&pid=S0012-7353201100050000300006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[7]</b> Jim&eacute;nez, C., Razonamiento Aproximado y Adaptable en el Procesamiento de Consultas Vagas. [Tesis Doctoral], Medell&iacute;n: Universidad Nacional de Colombia. 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000111&pid=S0012-7353201100050000300007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[8]</b> UCI Machine Learning Repository, Iris Database. Irvine, CA: University of California, School of Information and Computer Science. Disponible en l&iacute;nea: <a href="http://archive.ics.uci.edu/ml/datasets/Iris" target="referencia">http://archive.ics.uci.edu/ml/datasets/Iris</a>. [citado 8 de Agosto de 2011]     &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000112&pid=S0012-7353201100050000300008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[9]</b> Hern&aacute;ndez, J.; Ram&iacute;rez, M.j. y Ferri, C., Introducci&oacute;n a la Miner&iacute;a de Datos. Madrid: Pearson Educaci&oacute;n. 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000113&pid=S0012-7353201100050000300009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[10]</b> Fisher, R.A., The use of multiple measurements in taxonomic problems. Annual Eugenics, 7, Part II, pp. 179-188. 1936.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000114&pid=S0012-7353201100050000300010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[11]</b> Webb, A., Statistical Pattern Recognition. John Wiley & Sons, Segunda Edici&oacute;n, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000115&pid=S0012-7353201100050000300011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br>   <b>[12]</b> Duda, R.O., Hart, P.E. and Stork, D.G., Pattern Classification. New York: John Wiley & Sons, Segunda Edici&oacute;n, 2001.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000116&pid=S0012-7353201100050000300012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><br> <b>[13]</b> Marques de S&aacute;, J.P., Pattern Recognition - Concepts, Methods and Applications. Springer, 2001.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000117&pid=S0012-7353201100050000300013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> </font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[Z. P]]></given-names>
</name>
<name>
<surname><![CDATA[Jiang]]></surname>
<given-names><![CDATA[j. H]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Liang]]></surname>
<given-names><![CDATA[Y.Z]]></given-names>
</name>
<name>
<surname><![CDATA[Yu]]></surname>
<given-names><![CDATA[R.Q]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fuzzy linear discriminant analysis for chemical data sets.]]></article-title>
<source><![CDATA[Chemometrics and Intelligent Laboratory Systems]]></source>
<year>1999</year>
<volume>45</volume>
<numero>1-2</numero>
<issue>1-2</issue>
<page-range>295-302</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wu]]></surname>
<given-names><![CDATA[X.H]]></given-names>
</name>
<name>
<surname><![CDATA[Zhou]]></surname>
<given-names><![CDATA[J.J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fuzzy discriminant analysis with kernel methods]]></article-title>
<source><![CDATA[Pattern Recognition]]></source>
<year>2006</year>
<volume>39</volume>
<page-range>2236-2239</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kuske]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Rubio]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Romain]]></surname>
<given-names><![CDATA[A.C]]></given-names>
</name>
<name>
<surname><![CDATA[Nicolas]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Marco]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fuzzy k-NN applied to moulds detection]]></article-title>
<source><![CDATA[Sensors and Actuators]]></source>
<year>2005</year>
<volume>106</volume>
<page-range>52-60</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bezdek]]></surname>
<given-names><![CDATA[J.C.]]></given-names>
</name>
<name>
<surname><![CDATA[Keller]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Krisnapuram]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Pal]]></surname>
<given-names><![CDATA[N.R]]></given-names>
</name>
</person-group>
<source><![CDATA[Fuzzy models and algorithms for pattern recognition and image processing]]></source>
<year>1999</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Kluwer Academic Publishers]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zadeh]]></surname>
<given-names><![CDATA[L.A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fuzzy Sets]]></article-title>
<source><![CDATA[Information and Control]]></source>
<year>1965</year>
<volume>8</volume>
<page-range>338-353</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jang]]></surname>
<given-names><![CDATA[J.S.R]]></given-names>
</name>
<name>
<surname><![CDATA[Sun]]></surname>
<given-names><![CDATA[C.T]]></given-names>
</name>
<name>
<surname><![CDATA[Mizutani]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<source><![CDATA[Neuro-Fuzzy and Soft Computing: A Computational Approach to Learning and Machine Intelligence]]></source>
<year>1997</year>
<publisher-name><![CDATA[Ed. Prentice Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jiménez]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[Razonamiento Aproximado y Adaptable en el Procesamiento de Consultas Vagas]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="">
<collab>University of California^dchool of Information and Computer Science</collab>
<source><![CDATA[UCI Machine Learning Repository, Iris Database. Irvine, CA]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hernández]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Ramírez]]></surname>
<given-names><![CDATA[M.j]]></given-names>
</name>
<name>
<surname><![CDATA[Ferri]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[Introducción a la Minería de Datos]]></source>
<year>2004</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Pearson Educación.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fisher]]></surname>
<given-names><![CDATA[R.A.]]></given-names>
</name>
</person-group>
<collab>Annual Eugenics</collab>
<source><![CDATA[The use of multiple measurements in taxonomic problems]]></source>
<year>1936</year>
<volume>7</volume>
<edition>II</edition>
<page-range>179-188</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Webb]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical Pattern Recognition]]></source>
<year>2002</year>
<edition>Segunda Edición</edition>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Duda]]></surname>
<given-names><![CDATA[R.O.]]></given-names>
</name>
<name>
<surname><![CDATA[Hart]]></surname>
<given-names><![CDATA[P.E]]></given-names>
</name>
<name>
<surname><![CDATA[Stork]]></surname>
<given-names><![CDATA[D.G]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Classification]]></source>
<year>2001</year>
<edition>Segunda Edición</edition>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marques de Sá]]></surname>
<given-names><![CDATA[J.P.]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Recognition - Concepts, Methods and Applications]]></source>
<year>2001</year>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
