Scielo RSS <![CDATA[Revista Facultad de Ingeniería Universidad de Antioquia]]> http://www.scielo.org.co/rss.php?pid=0120-623020160002&lang=en vol. num. 79 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <link>http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200001&lng=en&nrm=iso&tlng=en</link> <description/> </item> <item> <title><![CDATA[<B>Estimation of the neuromodulation parameters from the planned volume of tissue activated in deep brain stimulation</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200002&lng=en&nrm=iso&tlng=en Deep brain stimulation (DBS) is a therapy with promissory results for the treatment of movement disorders. It delivers electric stimulation via an electrode to a specific target brain region. The spatial extent of neural response to this stimulation is known as volume of tissue activated (VTA). Changes in stimulation parameters that control VTA, such as amplitude, pulse width and electrode configuration can affect the effectiveness of the DBS therapy. In this study, we develop a novel methodology for estimating suitable DBS neuromodulation parameters, from planned VTA, that attempts to maximize the therapeutic effects, and to minimize the adverse effects of DBS. For estimating the continuous outputs (amplitude and pulse width), we use multi-output support vector regression, taking the geometry of the VTA as input space. For estimating the electrode polarity configuration, we perform several classification problems, also using support vector machines from the same input space. Our methodology attains promising results for both the regression setting, and for predicting electrode active contacts and their polarity. Combining biological neural modeling techniques together with machine learning, we introduce a novel area of research where parameters of neuromodulation in DBS can be tuned by manually specifying a desired geometric volume.<hr/>La estimulación cerebral profunda (ECP) es una terapia con resultados promisorios para el tratamiento de desórdenes del movimiento. Esta envía estimulación eléctrica por medio de un electrodo a una región específica del cerebro. La propagación espacial de la respuesta neuronal a esta estimulación se conoce como volumen de tejido activado (VTA). Cambios en los parámetros de estimulación que controlan el VTA, como la amplitud, el ancho de pulso y la configuración de polaridad del electrodo pueden afectar la efectividad de la terapia ECP. En este estudio, desarrollamos una metodología novedosa para estimar los parámetros de neuromodulación de ECP adecuados, a partir del VTA planeado, que trata de maximizar los efectos terapéuticos y minimizar los efectos adversos de la ECP. Para la estimación de las salidas continuas (amplitud y ancho de pulso), usamos regresión de soporte vectorial de múltiples salidas, tomando la geometría del VTA como espacio de entrada. Para la estimación de la configuración del electrodo desarrollamos varios problemas de clasificación, también utilizando máquinas de soporte vectorial para el mismo espacio de entrada. Nuestra metodología logra resultados prometedores tanto en el caso de regresión como para predecir los contactos activos del electrodo y su polaridad. Combinando técnicas de modelamiento de neuronas biológicas junto con aprendizaje de máquina, se introduce una novedosa área de investigación donde los parámetros de neuromodulación en ECP pueden sintonizarse manualmente especificando un volumen geométrico. <![CDATA[<B>Applicability of semi-supervised learning assumptions for gene ontology terms prediction</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200003&lng=en&nrm=iso&tlng=en Gene Ontology (GO) is one of the most important resources in bioinformatics, aiming to provide a unified framework for the biological annotation of genes and proteins across all species. Predicting GO terms is an essential task for bioinformatics, but the number of available labelled proteins is in several cases insufficient for training reliable machine learning classifiers. Semi-supervised learning methods arise as a powerful solution that explodes the information contained in unlabelled data in order to improve the estimations of traditional supervised approaches. However, semi-supervised learning methods have to make strong assumptions about the nature of the training data and thus, the performance of the predictor is highly dependent on these assumptions. This paper presents an analysis of the applicability of semi-supervised learning assumptions over the specific task of GO terms prediction, focused on providing judgment elements that allow choosing the most suitable tools for specific GO terms. The results show that semi-supervised approaches significantly outperform the traditional supervised methods and that the highest performances are reached when applying the cluster assumption. Besides, it is experimentally demonstrated that cluster and manifold assumptions are complementary to each other and an analysis of which GO terms can be more prone to be correctly predicted with each assumption, is provided.<hr/>La Ontología Genética (GO) es uno de los recursos más importantes en la bioinformática, el cual busca proporcionar un marco de trabajo unificado para la anotación biológica de genes y proteínas de todas las especies. La predicción de términos GO es una tarea esencial en bioinformática, pero el número de secuencias etiquetadas que se encuentran disponibles es insuficiente en muchos casos para entrenar sistemas confiables de aprendizaje de máquina. El aprendizaje semi-supervisado aparece entonces como una poderosa solución que explota la información contenida en los datos no etiquetados, con el fin de mejorar las estimaciones de las aplicaciones supervisadas tradicionales. Sin embargo, los métodos semi-supervisados deben hacer suposiciones fuertes sobre la naturaleza de los datos de entrenamiento y, por lo tanto, el desempeño de los predictores es altamente dependiente de estas suposiciones. En este artículo se presenta un análisis de la aplicabilidad de las diferentes suposiciones del aprendizaje semi-supervisado en la tarea específica de predicción de términos GO, con el fin de proveer elementos de juicio que permitan escoger las herramientas más adecuadas para términos GO específicos. Los resultados muestran que los métodos semi-supervisados superan significativamente a los métodos tradicionales supervisados y que los desempeños más altos son alcanzados cuando se implementa la suposición de cluster. Además se comprueba experimentalmente que las suposiciones de cluster y manifold son complementarias entre sí y se realiza un análisis de cuáles términos GO pueden ser más susceptibles de ser correctamente predichos usando cada una de éstas. <![CDATA[<B>Automatic segmentation of lizard spots using an active contour model</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200004&lng=en&nrm=iso&tlng=en Animal biometrics is a challenging task. In the literature, many algorithms have been used, e.g. penguin chest recognition, elephant ears recognition and leopard stripes pattern recognition, but to use technology to a large extent in this area of research, still a lot of work has to be done. One important target in animal biometrics is to automate the segmentation process, so in this paper we propose a segmentation algorithm for extracting the spots of Diploglossus millepunctatus, an endangered lizard species. The automatic segmentation is achieved with a combination of preprocessing, active contours and morphology. The parameters of each stage of the segmentation algorithm are found using an optimization procedure, which is guided by the ground truth. The results show that automatic segmentation of spots is possible. A 78.37 % of correct segmentation in average is reached.<hr/>La biometría en animales es una tarea desafiante. En la literatura muchos algoritmos se han utilizado, como, por ejemplo, el reconocimiento de los pechos en pingüinos, el reconocimiento de las orejas en elefantes y el reconocimiento de los patrones de rayas en leopardos. No cabe duda que aún hay mucho trabajo para hacer un uso masivo de la tecnología. En este artículo proponemos un algoritmo de segmentación para extraer manchas de la especie de lagartos Diploglossus millepunctatus, amenazada por la actividad humana. La segmentación automática ha sido lograda con una combinación de preprocesamiento, contornos activos y morfología. Los parámetros de cada etapa del algoritmo de segmentación han sido optimizados usando imágenes de referencia como objetivo. Los resultados muestran que la segmentación automática de manchas es posible. Un 78,37% de segmentación correcta en promedio es alcanzado. <![CDATA[<B>A Markov random field image segmentation model for lizard spots</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200005&lng=en&nrm=iso&tlng=en Animal identification as a method for fauna study and conservation can be implemented using phenotypic appearance features such as spots, stripes or morphology. This procedure has the advantage that it does not harm study subjects. The visual identification of the subjects must be performed by a trained professional, who may need to inspect hundreds or thousands of images, a time-consuming task. In this work, several classical segmentation and preprocessing techniques, such as threshold, adaptive threshold, histogram equalization, and saturation correction are analyzed. Instead of the classical segmentation approach, herein we propose a Markov random field segmentation model for spots, which we test under ideal, standard and challenging acquisition conditions. As study subject, the Diploglossus millepunctatus lizard is used. The proposed method achieved a maximum efficiency of 84.87%.<hr/>La identificación de animales para estudio y conservación de la fauna puede ser realizada usando características de apariencia fenotípica como manchas, rayas o forma, teniendo la ventaja de que este enfoque no causa ningún daño al sujeto de estudio. Debido a que la identificación visual debe hacerse a través de la inspección, un experto revisa potencialmente cientos o miles de imágenes. En este trabajo se realiza un análisis con varios algoritmos clásicos de segmentación y preprocesamiento como: binarización, ecualización del histograma y corrección de la saturación. Contra los enfoques clásicos de segmentación, un modelo de segmentación basado en campos aleatorios de Markov para segmentación de manchas es propuesto y probado en imágenes ideales, estándares y desafiantes. Como sujeto de estudio es usado el lagarto Diploglossus millepunctatus. El método propuesto alcanzó una eficiencia máxima de 84,87%. <![CDATA[<B>An insight to the automatic categorization of speakers according to sex and its application to the detection of voice pathologies</B>: <B>A comparative study</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200006&lng=en&nrm=iso&tlng=en An automatic categorization of the speakers according to their sex improves the performance of an automatic detector of voice pathologies. This is grounded on findings demonstrating perceptual, acoustical and anatomical differences in males' and females' voices. In particular, this paper follows two objectives: 1) to design a system which automatically discriminates the sex of a speaker when using normophonic and pathological speech, 2) to study the influence that this sex detector has on the accuracy of a further voice pathology detector. The parameterization of the automatic sex detector relies on MFCC applied to speech; and MFCC applied to glottal waveforms plus parameters modeling the vocal tract. The glottal waveforms are extracted from speech via iterative lattice inverse filters. Regarding the pathology detector, a MFCC parameterization is applied to speech signals. Classification, in both sex and pathology detectors, is carried out using state of the art techniques based on universal background models. Experiments are performed in the Saarbrücken database, employing the sustained phonation of vowel /a/. Results indicate that the sex of the speaker may be discriminated automatically using normophonic and pathological speech, obtaining accuracy up to 95%. Moreover, including the a-priori information about the sex of the speaker produces an absolute performance improvement in EER of about 2% on pathology detection tasks.<hr/>Una categorización automática de los hablantes de acuerdo con su sexo mejora el rendimiento de un detector automático de patologías de voz. Esto se fundamenta en hallazgos que demuestran diferencias perceptuales, acústicas y anatómicas en voces masculinas y femeninas. En particular, este trabajo persigue dos objetivos: 1) diseñar un sistema que discrimine automáticamente el sexo de hablantes utilizando habla normofónica y patológica, 2) estudiar la influencia que este detector de sexo tiene sobre el acierto de un posterior detector de patologías de voz. La parametrización del detector automático de sexo se basa en MFCC aplicados sobre señales de voz; y MFCC aplicados a formas de onda glotal junto a parámetros que modelan el tracto vocal. Las formas de onda glotal se extraen de la voz a través de un filtrado inverso iterativo en celosía. En cuanto al detector de patologías, una parametrización MFCC se aplica a señales de voz. La clasificación, tanto en los detectores de sexo como de patología, se lleva a cabo con técnicas del estado del arte basadas en modelos de base universal. Experimentos son realizados sobre la base de datos Saarbrücken empleando la fonación sostenida de la vocal /a/. Los resultados indican que el sexo del hablante puede ser discriminado automáticamente utilizando habla normofónica y patológica, obteniendo una precisión de hasta un 95%. Por otra parte, al incluir información a priori sobre el sexo del hablante se produce una mejora de alrededor del 2% de rendimiento absoluto en EER, en tareas de detección de patología. <![CDATA[<B>Impact of the error sensing probability in wide coverage areas of clustered-based wireless sensor networks</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200007&lng=en&nrm=iso&tlng=en Wireless sensor networks are composed by a big number of autonomous nodes surveying a certain environmental parameter, such as temperature, humidity or even mobile targets. In this work, we focus on mobile target detection in wide area systems such as tracking animals in a forest or vehicle detection in security missions. Specifically, a low energy consumption clustering protocol is proposed, analyzed and studied. To this end, two communication schemes, based on the well-known LEACH protocol are proposed. The performance of the system is studied by means of a mathematical model that describes the behavior of the network under the most relevant parameters such as coverage radius, transmission radius, and number of nodes inside the network. Additionally, the transmission probability in the cluster formation phase is studied under realistic considerations of a wireless channel, where signal detection errors occur due to interference and noise in the access channel.<hr/>Las redes inalámbricas de sensores están compuestas por un gran número de nodos autónomos que vigilan algún parámetro del ambiente de interés, como puede ser la temperatura, la humedad o incluso objetivos móviles. Este trabajo se enfoca en la detección de móviles en áreas amplias como puede ser la vigilancia de animales en un bosque o la detección de vehículos en misiones de seguridad. Específicamente, se propone, analiza y estudia un protocolo de agrupación de bajo consumo de energía. Para ello, se presentan dos esquemas de comunicaciones basados en el bien conocido protocolo LEACH. El desempeño del sistema se estudia por medio de un modelo matemático que describe el comportamiento de la red bajo los parámetros más relevantes, como son: radio de cobertura, radio de transmisión y número de nodos en la red. Adicionalmente, se estudia la probabilidad de transmisión en la fase de formación de grupos bajo consideraciones realistas de un canal inalámbrico, en donde la detección de la señal tiene errores debido a la interferencia y ruido en el canal de acceso. <![CDATA[<B>Model-based maximum power point tracking for wind generators</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200008&lng=en&nrm=iso&tlng=en A model-based maximum power point tracking solution for wind systems is presented in this paper. The strategy uses the Loss-free resistor concept and a generator model, which relates the load impedance required to produce the maximum power depending on the generator rotor speed. The strategy performance is validated through simulation and the emulation of a multi-machine wind generation system. With the proposed strategy, it is possible to extract the maximum power of each generator and, therefore, the maximum power of the generation system.<hr/>En este artículo se presenta una estrategia de seguimiento del punto de máxima potencia, basada en modelo para generadores eólicos. La estrategia utiliza el concepto del resistor libre de pérdidas y un modelo del generador, el cual representa la impedancia de carga requerida para producir la máxima potencia posible en la velocidad del rotor del generador. Los resultados de la estrategia son validados a través de simulación y una emulación de un sistema con múltiples aerogeneradores. Con la estrategia propuesta es posible extraer la máxima potencia de cada generador y, por lo tanto, la máxima potencia del sistema de generación. <![CDATA[<B>On-line signature verification using Gaussian Mixture Models and small-sample learning strategies</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200009&lng=en&nrm=iso&tlng=en This paper addresses the problem of training on-line signature verification systems when the number of training samples is small, facing the real-world scenario when the number of available signatures per user is limited. The paper evaluates nine different classification strategies based on Gaussian Mixture Models (GMM), and the Universal Background Model (UBM) strategy, which are designed to work under small-sample size conditions. The GMM's learning strategies include the conventional Expectation-Maximisation algorithm and also a Bayesian approach based on variational learning. The signatures are characterised mainly in terms of velocities and accelerations of the users' handwriting patterns. The results show that for a genuine vs. impostor test, the GMM-UBM method is able to keep the accuracy above 93%, even when only 20% of samples are used for training (5 signatures). Moreover, the combination of a full Bayesian UBM and a Support Vector Machine (SVM) (known as GMM-Supervector) is able to achieve 99% of accuracy when the training samples exceed 20. On the other hand, when simulating a real environment where there are not available impostor signatures, once again the combination of a full Bayesian UBM and a SVM, achieve more than 77% of accuracy and a false acceptance rate lower than 3%, using only 20% of the samples for training.<hr/>El artículo aborda el problema de entrenamiento de sistemas de verificación de firmas en línea cuando el número de muestras disponibles para el entrenamiento es bajo, debido a que en la mayoría de situaciones reales el número de firmas disponibles por usuario es muy limitado. El artículo evalúa nueve diferentes estrategias de clasificación basadas en modelos de mezclas de Gaussianas (GMM por sus siglas en inglés) y la estrategia conocida como modelo histórico universal (UBM por sus siglas en inglés), la cual está diseñada con el objetivo de trabajar bajo condiciones de menor número de muestras. Las estrategias de aprendizaje de los GMM incluyen el algoritmo convencional de Esperanza y Maximización, y una aproximación Bayesiana basada en aprendizaje variacional. Las firmas son caracterizadas principalmente en términos de velocidades y aceleraciones de los patrones de escritura a mano de los usuarios. Los resultados muestran que cuando se evalúa el sistema en una configuración genuino vs. impostor, el método GMM-UBM es capaz de mantener una precisión por encima del 93%, incluso en casos en los que únicamente se usa para entrenamiento el 20% de las muestras disponibles (equivalente a 5 firmas), mientras que la combinación de un modelo Bayesiano UBM con una Máquina de Soporte Vectorial (SVM por sus siglas en inglés), modelo conocido como GMM-Supervector, logra un 99% de acierto cuando las muestras de entrenamiento exceden las 20. Por otro lado, cuando se simula un ambiente real en el que no están disponibles muestras impostoras y se usa únicamente el 20% de las muestras para el entrenamiento, una vez más la combinación del modelo UBM Bayesiano y una SVM alcanza más del 77% de acierto, manteniendo una tasa de falsa aceptación inferior al 3%. <![CDATA[<B>Cross-layer designs for energy efficient wireless body area networks</B>: <B>a review</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200010&lng=en&nrm=iso&tlng=en Cross-layer design is considered a powerful alternative to solve the complexities of wireless communication in wireless body area networks (WBAN), where the classical communication model has been shown to be inaccurate. Regarding the energy consumption problem, we have prepared a current survey of the most relevant scientific publications on energy-efficient cross-layer design for WBAN. In this paper, we provide a comprehensive review of the advances in cross-layer approaches, protocols and optimizations aimed at increasing the network lifetime by saving energy in WBANs. Subsequently, we discuss the relevant aspects and shortcomings of these energy-efficient cross-layer techniques and point out the open research issues and challenges in WBAN cross-layer design. In this survey, we propose a taxonomy for cross-layer approaches to fit them into categories based on the protocols involved in the cross-layer scheme. A novel classification is included to clarify the theoretical concepts behind each cross-layer scheme; and to group similar approaches by establishing their differences from the other strategies reviewed. Our conclusion considers the aspects of mobility and channel modeling in WBAN scenarios as the directions of future cross-layer research for WBAN and telemedicine applications.<hr/>El diseño de capa cruzada se considera una poderosa alternativa para dar solución a las complejidades introducidas por las comunicaciones inalámbricas en redes de área corporal (WBAN), donde el modelo clásico de comunicaciones no ha exhibido un desempeño adecuado. Respecto al problema puntual de consumo de energía, hemos preparado la presente revisión de las publicaciones más relevantes que tratan la eficiencia energética para WBAN usando diseño de capa cruzada. En este artículo se proporciona una revisión exhaustiva de los avances en aproximaciones, protocolos y optimizaciones de capa cruzada cuyo objetivo es incrementar el tiempo de vida de las redes WBAN mediante el ahorro de energía. Luego, se discute los aspectos relevantes y deficiencias de las técnicas de capa cruzada energéticamente eficientes. Además, se introducen aspectos de investigación abiertos y retos en el diseño de capa cruzada para WBAN. En esta revisión proponemos una taxonomía de las aproximaciones de capa cruzada, de modo que las técnicas revisadas se ajustan en categorías de acuerdo a los protocolos involucrados en el diseño. Una clasificación novedosa se incluye para hacer claridad en los conceptos teóricos involucrados en cada esquema de capa cruzada y para luego agrupar aproximaciones similares evidenciando las diferencias con otras técnicas entre sí. Nuestras conclusiones consideran los aspectos de movilidad y modelamiento del canal en escenarios de WBAN como las direcciones para futura investigación en WBAN y en aplicaciones de telemedicina. <![CDATA[<B>Data envelopment analysis and Pareto genetic algorithm applied to robust design in multiresponse systems</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200011&lng=en&nrm=iso&tlng=en This paper shows the use of Data Envelopment Analysis (DEA) to rank and select the solutions found by a Pareto Genetic Algorithm (PGA) to problems of robust design in multiresponse systems with many control and noise factors. The efficiency analysis of the solutions using DEA shows that the PGA finds a good approximation to the efficient frontier. Additionally, DEA is used to determine the combination of a given level of mean adjustment and variance in the responses of a system, so as to minimize the economic cost of achieving those two objectives. By linking that cost with other technical and/or economic considerations, the solution that best matches a predefined level of quality can be more sensibly selected.<hr/>Se presenta el uso de Análisis Envolvente de Datos (AED) para priorizar y seleccionar soluciones encontradas por un Algoritmo Genético de Pareto (AGP) a problemas de diseño robusto en sistemas multirespuesta con muchos factores de control y ruido. El análisis de eficiencia de las soluciones con AED muestra que el AGP encuentra una buena aproximación a la frontera eficiente. Además, se usa AED para determinar la combinación del nivel de ajuste de media y variación de las respuestas del sistema, y con la finalidad de minimizar el costo económico de alcanzar dichos objetivos. Al unir ese costo con otras consideraciones técnicas y/o económicas, la solución que mejor se ajuste con un nivel predeterminado de calidad puede ser seleccionada más apropiadamente. <![CDATA[<B>Determination of accident-prone road sections using quantile regression</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200012&lng=en&nrm=iso&tlng=en The accurate identification of dangerous areas with high accident rates allowing governmental agencies responsible for improving road safety to properly allocate investment in critically accident prone road sections. Given this immediate need, this study aims to determine which segments are prone to accidents as well as the development of a hazard ranking of the accident prone road sections located within the city limits of Ocaña, Colombia, through the use of quantile regression. Based on the estimated model corresponding to quantile 95, it was possible to establish causal relationships between the frequency of accidents and characteristics such as length of the road section, width of the roadway, number of lanes, number of intersections, average daily traffic and average speed. The results indicate a total of seven accident prone road sections, for which a hazard ranking was established.<hr/>La identificación acertada de sitios peligrosos a accidentalidad permite a las entidades gubernamentales, encargadas de realizar mejoras a la seguridad vial, una adecuada destinación de las inversiones a los tramos viales verdaderamente críticos; dada esta necesidad inmediata, la presente investigación se enfoca en determinar los tramos propensos a accidentes y la posterior elaboración de un ranking de peligrosidad efectuado a los tramos críticos encontrados en el perímetro urbano de Ocaña (Colombia), utilizando Regresión Cuantil (RC). A partir del modelo estimado correspondiente al cuantil 95 fue posible establecer relaciones de causalidad entre características como longitud del tramo vial, ancho de calzada, número de carriles, número de intersecciones, tránsito promedio diario y velocidad media con la frecuencia de accidentes, determinándose un total de 7 tramos críticos a los cuales se les estableció un ranking de peligrosidad. <![CDATA[<B>Validation of a methodology to determine Benzene, Toluene, Ethylbenzene, and Xylenes concentration present in the air and adsorbed in activated charcoal passive samplers by GC/FID chromatography</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200013&lng=en&nrm=iso&tlng=en This article shows the validation of the analytical procedure which allows determining concentrations of Benzene (B), Toluene (T), Ethylbenzene (E), and Xylenes (X) -compounds known as BTEX- present in the air and adsorbed by over activated charcoal by GC-FID using the (Fluorobenzene) internal standard addition as quantification method. In the process, reference activated charcoal was employed for validation and coconut -base granular charcoal (CGC) for the construction of passive captors used in sample taken in external places or in environmental air. CGC material was selected from its recovering capacity of BTEX, with an average of 89.1% for all analytes. In this research, BTEX presence in air samples, taken in a road of six lines and characterized for having heavy traffic, in Medellín city (Antioquia, Colombia), was analyzed. Samplers employed were located in pairs per point (in 7 transversal strips of the east, central, and west sidewalk), at heights ranging from 2.50 and 3.00 meters, at the floor level, inside a special housing for their protection. The number of total stations was twenty-one (21) in 3 kilometers, with exposition times of 28 days. Analytes desorption procedure was carried out with carbon disulfide as an extraction solvent, and in the chromatograhic analysis of gases this was performed (by triplicate) using a flame ionization detector (FID). An HP-INNOWAX chromatographic column was also used. Ultra-pure Helium, 99.99% purity, was used as carrier gas and quantification was performed (by triplicate) in the liquid extract in terms of concentration (µg/mL). The research allowed validating the methodology, obtaining recovery percentages ranging between 75.0 % and 98.2 % for all analytes, and quantification limits in µg/mL were 0.279; 0.337; 0.349; 0.391; 0.355; and 0.356 for benzene, toluene, ethylbenzene, p-xylene, m-xylene, and o-xylene, respectively, and it was proven that the validated method was a selective, specific, linear, accurate, and exact method.<hr/>En este trabajo se presenta la validación del procedimiento analítico que permite determinar las concentraciones de Benceno (B), Tolueno (T), Etilbenceno (E) y Xilenos (X), compuestos conocidos como BTEX, presentes en el aire y adsorbidos sobre carbón activado, usando el método de adición de estándar interno (Fluorobenceno) para la cuantificación. En el proceso se empleó carbón activado de referencia para la validación y carbón granular (CGC) a base de coco para la construcción de los captadores pasivos, empleados en la toma de muestras en exteriores o aire ambiente. El material CGC fue seleccionado a partir de su capacidad de recuperación de BTEX, con un promedio 89,1% para todos los analitos. En la investigación se evaluó la presencia de BTEX en muestras de aire, tomadas en una vía de seis carriles y caracterizada, además, por ser de alto flujo vehicular en la ciudad de Medellín (Antioquia, Colombia). Los captadores empleados, fueron ubicados en pares por punto (en siete franjas transversales de la vía: andenes oriental, central y occidental, y a alturas que oscilaron entre los 2,50 y 3,00 metros a nivel de piso), dentro de una carcasa especial para su protección. El número de estaciones totales fue de veintiuno (21) en un trayecto de 3 km, para un total de 21 muestras recolectadas con tiempos de exposición de 28 días. El procedimiento de desorción de los analitos se realizó con disulfuro de carbono como solvente de extracción y en el análisis cromatográfico de gases se realizó (por triplicado) empleando un detector de ionización de llama (FID). Se usó, además, una columna cromatográfica HP- INNOWAX. El tiempo de corrido empleado fue de 18,5 minutos, usando Helio ultra puro, 99,99% de pureza como gas de arrastre y la cuantificación se llevó a cabo en el extracto líquido en términos de concentración (µg/mL). En la investigación se pudo validar la metodología, obteniendo porcentajes de recuperación que oscilaron entre el 75,0 y el 98,2 % para todos los analitos y los límites de cuantificación en µg/mL fueron 0,279; 0,337; 0,349; 0,391; 0,355 y 0,356; para Benceno, Tolueno, Etilbenceno, p-xileno; m-xileno y o-xileno, respectivamente y se logró demostrar que el método validado fue selectivo, específico, lineal, preciso y exacto. <![CDATA[<B>Horizontal vortex single chamber hydroturbine</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200014&lng=en&nrm=iso&tlng=en A machine with high-form resistance was evaluated in order to extract energy from a creek, river or ocean stream, and generate electricity. Without appropriate instruments, research turned into qualitative. It was assumed that if it still worked, its behavior may improve softening its form. The device has a semi-convergent nozzle with flat walls, a cylindrical Vortex Chamber and a runner. It captures water through its largest section and downloads tangentially by its lower section into the Vortex Chamber. It has a hole in one of its sidewalls. This way, it forms a horizontal vortex that spins a rotor whose shaft drives an electric generator. The experimental work carried out showed that it is possible to generate electricity with this device despite the adverse conditions in which it was tested.<hr/>Se evaluó una máquina con alta resistencia de forma para extraer energía de una quebrada, río o corriente marina, y generar electricidad. Sin instrumentos adecuados, la investigación fue cualitativa. Se supuso que si aun así funcionaba, su comportamiento podía mejorar suavizándose la forma. El aparato tiene una tobera semi-convergente de paredes planas, una cámara de vórtice cilíndrica y un rodete. Capta agua por su sección mayor y la descarga tangencialmente por su sección menor en la cámara de vórtice; ésta tiene un orificio en una de sus paredes laterales. Así forma un vórtice horizontal que hace girar un rodete cuyo eje acciona un generador eléctrico. El trabajo experimental realizado mostró que sí es posible producir energía eléctrica con este dispositivo pese a las condiciones adversas en que se ensayó. <![CDATA[<B>Effect of the use nickeliferous laterite and pumice as additives in the performance and durability of the Portland cement</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200015&lng=en&nrm=iso&tlng=en This work evaluated the pozzolanic behavior of the niqueliferous laterite of Cerromatoso (Córdoba) and the pumice of Cemex (Boyacá), based on the NTC standards for fine aggregates. The mortars were prepared with additions of 2.5%, 5% and 10% as substitutes of type I Portland cement, which tested to extreme environments (high temperatures and chemical attacks with H2SO4 y MgSO4). Results demonstrates how these alternative materials increase or decrease their puzolanic degree, as well as the effect of these additives in the mortar mixtures with the time, demonstrating similar properties respect to mortars prepared with type I Portland cement. Therefore, the mortars have an acceptable answer under the tested conditions, although it is possible to improve their workability and durability, collaborating not only with of the energy saving in the production of type I Portland cement but also in the use of alternative additives that let to mitigate the environmental impact produced by the cement industry.<hr/>En este trabajo se evalúa el comportamiento puzolánico de la laterita niquelífera de Cerromatoso (Córdoba) y la pumita de Cemex (Boyacá) en la preparación de morteros según normas NTC para agregados finos. Los morteros se prepararon con adiciones de 2,5%, 5% y 10% como sustitutos del cemento Portland tipo I, los cuales fueron sometidos a ensayos de resistencia mecánica antes y después de ser sometidos a ambientes extremos (altas temperaturas y ataques químicos como H2SO4 y MgSO4). Los resultados demuestran cómo estos materiales alternativos incrementan o disminuyen su grado de puzolanidad, así como el efecto de estos aditivos al interior de las mezclas de mortero en el tiempo, demostrando propiedades similares con relación a los morteros preparados con cemento Portland tipo I. Por lo tanto, los morteros tienen una respuesta aceptable ante las condiciones evaluadas, aunque es posible mejorar su desempeño y durabilidad, colaborando no solo con el ahorro energético en la producción del cemento Portland tipo I sino también en el uso de aditivos alternativos que permitan mitigar el impacto ambiental provocado por la industria cementera. <![CDATA[<B>Review of improving the water management for the informal gold mining in Colombia</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200016&lng=en&nrm=iso&tlng=en Colombia is one of the largest producers of gold in Latin America and it has recently increased its production, especially in the Departments of Antioquia, Chocó, Bolívar and Córdoba, which in 2014 produced 90% of Colombia's gold. Most of this production comes from artisanal and Small-Scale Gold Mining (ASGM). Parallel with this boost in production, there is concern about the health of rivers, since many local mines discharge untreated waters and tailings directly to waterways. This situation has awakened awareness in the communities of Colombia. Water is essential to carry out daily activities and for their society and economy. This article review displays three current challenges in Colombia that have been identified with local government, universities, environmental authorities, consultants and mining industry. These challenges are: water pollution; aquifer protection; and changes in natural sedimentation in rivers. Based on previous work done in the region, this paper suggests new research directions to create opportunities for more sustainable practices. In particular, this paper identifies the opportunity to implement a series of practices to manage water and tailings at informal mining sites. The paper also highlights the importance of engaging communities, informal and formal miners, government and researchers in order to create consciousness of the importance of water in Colombia. This is an opportunity to create discussions that help miners to manage water and tailings, adapting these practices to their specific needs and through simple technologies.<hr/>Colombia es uno de los mayores productores de oro en América Latina, y recientemente ha aumentado su producción, especialmente en los departamentos de Antioquia, Chocó, Bolívar y Córdoba, los cuales en 2014 tuvieron una participación del 90% en la producción total de oro del país. La mayor parte de esta producción proviene de la Minería Aurífera Artesanal y de Pequeña Escala (ASGM, por sus siglas en ingles). Simultáneamente a este aumento en la producción, existe una preocupación por la contaminación que se genera sobre los recursos hídricos del país, debido a que la mayoría de minas artesanales e informales arrojan los relaves o desechos del proceso de recuperación de oro a los afluentes hídricos sin recibir ningún tipo de tratamiento previo. Esta situación ha despertado preocupación en las comunidades cuya economía se ha visto afectada, pues el agua que proviene de los ríos no solo es utilizada para satisfacer sus necesidades, sino también en la agricultura para el riego de los cultivos. En este trabajo se exponen tres desafíos actuales que posee el país frente a la utilización del agua en la mineria de oro tradicional, estos retos fueron identificados gracias a la colaboración del gobierno local, entes académicos, las autoridades ambientales, consultores y la industria minera. Estos desafíos son: la contaminación de los ríos producto de los desechos o relaves de la mineria artesanal de oro, la protección de los acuíferos y los cambios en la sedimentación natural de los ríos. En este artículo se propone, además, una metodología con el fin de llevar acabo prácticas de sostenibilidad con el medio ambiente. En particular, este trabajo identificó la oportunidad de colocar en práctica una serie de métodos para la adecuada utilización del agua y el tratamiento de residuos contaminantes generados por las minas tradicionales en el proceso de recuperación de oro. El documento también destaca la importancia de la comunidad minera artesanal y entes gubernamentales como el gobierno y las universidades, con el fin de crear conciencia sobre la importancia del agua. Esta investigación ofrece la oportunidad de crear discusiones que ayudan a los mineros artesanales a gestionar prácticas sostenibles para la utilización del agua en los procesos mineros, a través de la implementación de tecnologías no contaminantes. <![CDATA[<B>Optimization for producing biodiesel from ethanol and waste frying oil with a high concentration of ester</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200017&lng=en&nrm=iso&tlng=en The usual transesterification of waste frying oil with ethanol does not give final concentration of biodiesel above 96.5%. The aim of this paper is to optimize the reaction conditions using ethanedioic acid as an activator of the carbonyl glyceryl ester. With the aid of a factorial design, the effects of the molar ratio of ethanol and oil, as well as the concentration of the catalyst sodium hydroxide were evaluated. The oil used was dehydrated and filtered, and the reactants submitted to mechanical stirring for two hours at 70° C. The data have been modeled by applying the response surface methodology, for the optimal reaction conditions. As results, the presence of ethanedioic acid drives transesterification from waste frying oil giving biodiesel with ester content over 96.5%. The response surface methodology gave the optimum conditions for the production of ethyl esters at molar ratio ethanol:oil of 6:1 and sodium hydroxide content of 1% relative to the mass of oil.<hr/>Considerando que la transesterificación del aceite residual como resultado de la cocción de alimentos con la presencia de etanol no permite obtener biodiesel con concentración de etil éster superior a 96,5%, esta investigación muestra cómo se optimizaron las condiciones de la reacción con la adición de ácido oxálico. Con la ayuda de un diseño factorial fueron estudiados los efectos de la relación molar de etanol y aceite, así como la concentración del catalizador hidróxido de sodio en la presencia de ácido oxálico como activador del carbonilo en la fase aceite. El aceite usado se deshidrató y se filtró. La reacción fue realizada mediante la agitación mecánica durante un período de dos horas a 70° C. Los datos fueron modelados mediante la aplicación de la metodología de superficie de respuesta, encontrando las condiciones óptimas de la reacción. El camino propuesto demostró ser factible para la producción de biodiesel a partir de etanol y aceite residual con contenido de éster dentro de la concentración especificada por EN 14103 (superior a 96,5%). La metodología de superficie de respuesta mostró las condiciones ideales con la relación molar etanol:aceite de 6:1 y contenido de hidróxido de sodio de 1% respecto a la masa del aceite. <![CDATA[<B>Contrast enhancement by searching discriminant color projections in dermoscopy images</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302016000200018&lng=en&nrm=iso&tlng=en The use of color as a strategy for enhancing the contrast is useful for conducting feature extraction procedures in images with high illumination disorders; hence, in order to correct contrast problems in images that were erroneously acquired, a method that automatically searches the discriminant projections of the color map depending on the original data dispersion is proposed. This method is based on techniques such as Fisher discriminant analysis (FDA) and principal component analysis (PCA). Because this is an unsupervised method, it can be used in images that were captured without taking into account the acquisition protocol and with non-uniform illumination. The method was tested using a set of 40 dermoscopy images, and a performance greater than 82% was obtained.<hr/>El uso del color como una estrategia de incremento del contraste para procedimientos de extracción de características en imágenes con altos desórdenes de iluminación es de gran utilidad; por lo tanto, con el fin de corregir los problemas de contraste en imágenes que fueron adquiridas erróneamente, se propone un método que busca automáticamente proyecciones discriminantes del mapa de color dependiendo de la dispersión los datos originales. Este método se basa en técnicas tales como análisis discriminante de Fisher (FDA) y análisis de componentes principales (PCA). Debido a que este es un método no supervisado, puede ser empleado en imágenes que fueron capturadas sin tomar en cuenta el protocolo de adquisición y con iluminación no uniforme. El método fue empleado en un conjunto de 40 imágenes dermatoscópicas, obteniéndose un desempeño superior al 82%.