Scielo RSS <![CDATA[Revista Facultad de Ingeniería]]> http://www.scielo.org.co/rss.php?pid=0121-112920200001&lang=pt vol. 29 num. 54 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Proposta para a avaliação de portais de dados abertos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100001&lng=pt&nrm=iso&tlng=pt Abstract The provision of portals that serve as a source of access and availability of public domain data is part of the adoption of public policies that some government entities have implemented in response to the establishment of an open, transparent, multidirectional, collaborative and focused on citizen participation government, both in monitoring and in making public decisions. However, the publication of this data must meet certain characteristics to be considered open and of quality. For this reason, studies arise that focus on the approach of methodologies and indicators that measure the quality of the portals and their data. For the aim of this paper, the search of referential sources of the last six years regarding the evaluation of data quality and open data portals in Spain, Brazil, Costa Rica, Taiwan and the European Union was carried out with the objective of gathering the necessary inputs for the approach of the methodology presented in the document.<hr/>Resumen La disposición de portales que sirven como fuente de acceso y disponibilidad de datos de dominio público forma parte de la adopción de políticas que algunas entidades gubernamentales han implementado como respuesta a la instauración de un gobierno abierto, transparente, multidireccional, colaborativo y orientado a la participación de los ciudadanos, tanto en el seguimiento como en la toma de decisiones públicas. Sin embargo, la publicación de estos datos debe cumplir con ciertas características para considerarse abiertos y de calidad. Por este motivo surgen estudios que se enfocan en el planteamiento de metodologías e indicadores que miden la calidad de los portales y de sus datos. Para fines de esta investigación se llevó a cabo la búsqueda de fuentes referenciales de los últimos seis años acerca de la evaluación de la calidad de datos y de portales de datos abiertos en España, Brasil, Costa Rica, Taiwán y la Unión Europea, con el objetivo de reunir los elementos necesarios para el planteamiento de la metodología que se presenta en el documento.<hr/>Resumo A disposição de portais que servem como fonte de acesso e disponibilidade de dados de domínio público forma parte da adoção de políticas que algumas entidades governamentais têm implementado como resposta à instauração de um governo aberto, transparente, multidireccional, colaborativo e orientado à participação dos cidadãos, tanto no seguimento como na tomada de decisões públicas. Porém, a publicação destes dados deve cumprir com certas características para considerar-se abertos e de qualidade. Por este motivo surgem estudos que se enfocam na abordagem de metodologias e indicadores que meçam a qualidade dos portais e de seus dados. Para fins desta pesquisa realizou-se a busca de fontes referenciais dos últimos seis anos acerca da avaliação da qualidade de dados e de portais de dados abertos na Espanha, Brasil, Costa Rica, Taiwan e na União Europeia, com o objetivo de reunir os elementos necessários para a abordagem da metodologia que se apresenta no documento. <![CDATA[Caracterização da transmissão sem fio de dados através de Wi-Fi em um sistema de processamento de informação biomecânica]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100002&lng=pt&nrm=iso&tlng=pt Abstract This paper presents a characterization of the wireless transmission of biomechanical signals in an embedded system, where a TCP protocol is used in an IEEE 802.11 communications network (Wi-Fi). The embedded system under study, called Imocap, allows the collection, analysis and transmission of biomechanical signals in real-time for various applications, among which the analysis of the movement of the lower and upper extremities and the operation of various control systems stand out. To accomplish this, Imocap is equipped with a Wi-Fi transceiver module (ESP8266) and various input and output peripherals. The wireless communication performance of Imocap, exposed in this paper, was analyzed through different tests in miscellaneous conditions like indoors, outdoors and in the presence of interference, noise and other wireless networks. The different test protocols conducted result in the Imocap system: 1) has a maximum effective range of 45.6 m when in Access Point mode; 2) has a maximum effective range of 44.3 m when in Station mode. In indoors and under the same conditions, the Imocap system: 3) has a maximum effective range of 81.25 m2, either Access Point or Station mode. The results showed that the transmission of biomechanical information through Wi-Fi using the TCP protocol is efficient and robust, both indoors and outdoors, even in environments of radio frequency interference. The use of this protocol is emphasized since its use allows the transmission of packages to be carried out in a controlled manner, allowing the error handling and recovery. In this way, it is possible to carry out efficient and robust wireless communication through embedded and portable devices, focusing mainly on areas such as medicine, telemedicine and telerehabilitation.<hr/>Resumen Este artículo presenta una caracterización de la transmisión inalámbrica de señales biomecánicas en un sistema embebido, donde se utiliza un protocolo TCP en una red de comunicaciones IEEE 802.11 (Wi-Fi). El sistema embebido en estudio, denominado Imocap, permite la recogida, análisis y transmisión de señales biomecánicas en tiempo real para diversas aplicaciones, entre las que destacan el análisis del movimiento de las extremidades inferiores y superiores y la activación de diversos sistemas de control. Para este fin, Imocap está equipado con un módulo transceptor Wi-Fi (ESP8266) y varios periféricos de entrada y salida. El desempeño de la comunicación inalámbrica de Imocap, expuesto en este trabajo, fue analizado a través de diferentes pruebas en condiciones diversas como en interiores, exteriores y en presencia de interferencia, ruido y otras redes inalámbricas. Los diferentes protocolos de prueba realizados dan como resultado que el sistema Imocap: 1) tiene un alcance efectivo máximo de 45,6 m cuando está en modo Access Point; 2) tiene un alcance efectivo máximo de 44,3 m cuando está en modo Station. En interior y en las mismas condiciones, el sistema Imocap: 3) tiene un alcance efectivo máximo de 81,25 m2, ya sea en modo Punto de Acceso o en modo Estación. Los resultados mostraron que la transmisión de información biomecánica a través de Wi-Fi utilizando el protocolo TCP es eficiente y robusta, tanto en interiores como en exteriores, incluso en entornos de interferencia de radiofrecuencia. Se destaca el uso de este protocolo ya que su uso permite que la transmisión de paquetes se realice de forma controlada, permitiendo el manejo y recuperación de errores. De esta manera, es posible llevar a cabo una comunicación inalámbrica eficiente y robusta a través de dispositivos embebidos y portátiles, centrándose principalmente en áreas como la medicina, la telemedicina y la telerehabilitación.<hr/>Resumo Este artigo apresenta uma caracterização da transmissão sem fio de sinais biomecânicos em um sistema embebido, onde utiliza-se um protocolo TCP em uma rede de comunicações IEEE 802.11 (Wi-Fi). O sistema embebido em estudo, denominado Imocap, permite a coleta, análise e transmissão de sinais biomecânicos em tempo real para diversas aplicações, entre as que destacam a análise do movimento das extremidades inferiores e superiores e a ativação de diversos sistemas de controle. Para este fim, Imocap está equipado com um módulo transceptor Wi-Fi (ESP8266) e vários periféricos de entrada e saída. O desempenho da comunicação sem fio de Imocap, exposto neste trabalho, foi analisado através de diferentes provas em condições diversas como em interiores, exteriores e em presença de interferência, ruído e outras redes sem fio. Os diferentes protocolos de prova realizados dão como resultado que o sistema Imocap: 1) tem um alcance efetivo máximo de 45,6 m quando está em modo Access Point; 2) tem um alcance efetivo máximo de 44,3 m quando está em modo Station. Em interior e nas mesmas condições, o sistema Imocap: 3) tem um alcance efetivo máximo de 81,25 m2, já seja em modo Ponto de Acesso ou em modo Estação. Os resultados mostraram que a transmissão de informação biomecânica através de Wi-Fi utilizando o protocolo TCP é eficiente e robusta, tanto em interiores como em exteriores, incluso em ambientes de interferência de radiofrequência. Destaca-se o uso deste protocolo já que seu uso permite que a transmissão de pacotes se realize de forma controlada, permitindo o controle e a recuperação de erros. Desta maneira, é possível levar a cabo uma comunicação sem fio eficiente e robusta através de dispositivos embebidos e portáteis, centrando-se principalmente em áreas como a medicina, a telemedicina e a telereabilitação. <![CDATA[Avaliação da resistência à corrosão do aço AISI 316l submetido a deformações severas mediante a técnica pressão calibrada]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100003&lng=pt&nrm=iso&tlng=pt Resumen En esta investigación, muestras de acero AISI 316L fueron sometidas a deformación plástica severa por la técnica presión calibrada (GP) mediante el uso de 2 matrices de acero de herramientas tipo A2 con dimensiones de 96 mm X 96 mm, una matriz corrugada con dientes de 2 mm y ángulo de 45° y una matriz plana. Cada pase por la matriz GP incluye 2 estados de corrugado y 2 estados de enderezado con una rotación de 180° entre cada uno de ellos. Esta configuración provee al material una deformación teórica equivalente por pase de ε~1.16. Al material fue deformado por 4 pases por GP hasta una deformación equivalente de ε~4,64. Previo a la deformación, las probetas fueron sometidas a un tratamiento térmico de recocido durante una 1 hora a 1000 °C con enfriamiento en agua, con el fin de eliminar la textura de laminación. El material en estado de recocido y deformado se caracterizó química y microestructuralmente mediante fluorescencia de rayos X y microscopía electrónica de barrido, respectivamente. Con el fin de evaluar el comportamiento a la corrosión del material, se utilizó la resistencia a la polarización lineal y el análisis mediante las curvas de Tafel en una solución de 0,6 M de NaCl por un tiempo de 0 y 24 horas. Los resultados muestran un comportamiento atípico en cuanto a la resistencia a la corrosión del acero AISI 316L. Se observó un aumento en la resistencia a la corrosión del 45% del material después de 4 pases por GP en comparación con el material recocido (0 pases).<hr/>Abstract In this investigation, samples of AISI 316L steel were subjected to severe plastic deformation by the groove pressing (GP) technique using 2 dies A2 type tool steel dies with dimensions of 96 mm X 96 mm, a corrugated die with 2 mm teeth and 45° angle and a flat die. Each pass through the GP die includes 2 states of corrugated and 2 states of straightening with a 180° rotation between each of them. This configuration provides the material with an equivalent theoretical deformation per pass of ε~1.16. The material was deformed by 4 passes per GP to an equivalent deformation of ε~4.64. Prior to the deformation, the specimens were subjected to an annealing heat treatment for 1 hour at 1000 °C with water cooling, in order to eliminate the lamination texture. The annealed and deformed material was characterized chemically and microstructurally by X-ray fluorescence and scanning electron microscopy, respectively. In order to evaluate the corrosion behavior of the material, linear polarization resistance and analysis by Tafel plot were used in a 0.6 M NaCl solution for 0 and 24 hours. The results show an atypical behavior regarding the corrosion resistance of AISI 316L steel. An increase in corrosion resistance of 45% of the material was observed after 4 passes per GP compared to annealed material (0 passes).<hr/>Resumo Nesta pesquisa, amostras de aço AISI 316L foram submetidas a deformação plástica severa pela técnica pressão calibrada (GP) mediante o uso de 2 matrizes de aço de ferramentas tipo A2 com dimensões de 96 mm X 96 mm, uma matriz corrugada com dentes de 2 mm e ângulo de 45° e uma matriz plana. Cada passe pela matriz GP inclui 2 estados de corrugado e 2 estados de endireitado com uma rotação de 180° entre cada um deles. Esta configuração provê ao material uma deformação teórica equivalente por passe de ε~1.16. O material foi deformado por 4 passes por GP até uma deformação equivalente de ε~4,64. Prévio à deformação, as provetas foram submetidas a um tratamento térmico de recozimento durante uma 1 hora a 1000 °C com esfriamento em água, com o fim de eliminar a textura de laminação. O material em estado de recozimento e deformado caracterizou-se química e microestruturalmente mediante fluorescência de raios X e microscopia eletrônica de varredura, respectivamente. Com o fim de avaliar o comportamento à corrosão do material, utilizou-se a resistência à polarização linear e a análise mediante as curvas de Tafel em uma solução de 0,6 M de NaCl por um tempo de 0 e 24 horas. Os resultados mostram um comportamento atípico em quanto à resistência à corrosão do aço AISI 316L. Observou-se um aumento na resistência à corrosão de 45% do material depois de 4 passes por GP em comparação com o material recozido (0 passes). <![CDATA[Avaliação de resíduos lignocelulósicos modificados quimicamente na adsorção de Cr (VI)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100004&lng=pt&nrm=iso&tlng=pt Abstract Chromium (Cr(VI)) presents carcinogenic and mutagenic effects in living beings. Biosorption is an alternative to conventional technologies for the treatment of waste water. The aim of this study was to assess the use of corncob and orange peels modified with citric acid and calcium chloride, respectively, for the removal of Cr(VI) using a batch system taking into account pH and particle size. Biomaterial were characterized using an elemental and chemical analysis, and FTIR, in which was evidenced the presence of hydroxyl, carbonyl and carboxyl groups, belonging to the cellulose and lignin that are attributed for the presence of active centers which intervene in the adsorption process. Adsorption experiments through batch system were performed using a solution of potassium dichromate at 100 ppm, 150 rpm, varying pH (2, 3, 4 and 6) and particle size (0.355, 0.5 and 1 mm). From de results was found that maximum removal percentage was obtained at pH 2 and particle size of 0.355 using corncob and orange peels. Final concentration of Cr(VI) was determined by using the standard method ASTM D1687-02 with 1,5-diphenylcarbazide at 540 nm. Adsorption kinetics and isotherms were assessed with the best conditions found, in which the experimental data was adjusted to the Pseudo-second order and Freundlich models, respectively. R2 value greater than 0.95 suggests that the process is controlled by a chemical reaction leading the formation of multilayers. The performance of the biomass in terms of q0 was found to be: corncob&gt;orange peels&gt;corncob modified&gt;orange peels modified.<hr/>Resumen El Cr(VI) tiene efectos cancerígenos y mutagénicos en seres vivos. La bioadsorción se presenta como alternativa a las tecnologías convencionales para tratamiento de aguas residuales. El objetivo del presente estudio fue evaluar el uso de la tusa de maíz modificada con ácido cítrico y la cáscara de naranja con cloruro de calcio, para la remoción de Cr (VI) en sistema por lotes evaluando el efecto del pH y el tamaño de partícula. Los biomateriales se caracterizaron por análisis químico, elemental y FTIR, evidenciando la presencia de grupos hidroxilo, carbonilo y carboxilo, pertenecientes a la celulosa y la lignina a estos se les atribuye propiedades de centros activos intervinientes en el proceso de adsorción. Los experimentos de adsorción por lotes se realizaron utilizando una solución de Dicromato de potasio a 100 ppm, 150 rpm pH 2, 3, 4 y 6 y tamaños de partícula 0,355, 0,5 y 1 mm, encontrándose que los porcentajes máximos de remoción se obtuvieron a pH 2 y tamaño de partícula 0.355 usando tusa de maíz y cáscara de naranja; la concentración final del metal se determinó por el standard método ASTM D 1687-02 con 1,5-difenilcarbazida a 540 nm. Se evaluó la cinética e isotermas a las mejores condiciones encontradas, obteniéndose que los datos experimentales fueron ajustados al modelo de Pseudo-segundo orden y Freundlich, respectivamente, con R2&gt;0,95; esto sugiere que el proceso es controlado por reacción química y sucede en multicapas. Se obtuvo el siguiente desempeño de las biomasas en términos q0: tusa de maíz&gt;naranja&gt;tusa de maíz-mod&gt;naranja-mod.<hr/>Resumo O Cr (VI) tem efeitos cancerígenos e mutagênicos em seres vivos. A bioadsorção apresenta-se como alternativa às tecnologias convencionais para tratamento de águas residuais. O objetivo do presente estudo foi avaliar o uso do sabugo de milho modificado com ácido cítrico e a casca de laranja com cloreto de cálcio, para a remoção de Cr (VI) em sistema por lotes avaliando o efeito do pH e o tamanho de partícula. Os biomateriais caracterizaram-se por análise química, elementar e FTIR, evidenciando a presença de grupos hidroxilo, carbonilo e carboxilo, pertencentes à celulose e à lignina; a estes se lhes atribui propriedades de centros ativos intervenientes no processo de adsorção. Os experimentos de adsorção por lotes realizaram-se utilizando uma solução de Dicromato de potássio a 100 ppm, 150 rpm pH 2, 3, 4 e 6 e tamanhos de partícula 0,355, 0,5 e 1 mm, encontrando-se que as porcentagens máximas de remoção obtiveram-se a pH 2 e tamanho de partícula 0.355 usando sabugo de milho e casca de laranja; a concentração final do metal determinou-se pelo standard método ASTM D 1687-02 com 1,5-difenilcarbazida a 540 nm. Avaliou-se a cinética e isotermas às melhores condições encontradas, obtendo-se que os dados experimentais foram ajustados ao modelo de Pseudo-segunda ordem e Freundlich, respectivamente, com R2&gt;0,95; isto sugere que o processo é controlado por reação química e sucede em multicamadas. Obteve-se o seguinte desempenho das biomassas em termos q0: sabugo de milho&gt;laranja&gt;sabugo de milho-mod&gt;laranja-mod. <![CDATA[Caracterização e Frequência de Micro-ondas de Películas de Titanato de Bário Obtidas Via Sol-Gel]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100005&lng=pt&nrm=iso&tlng=pt Abstract The present work focuses on the structural, morphological and dielectric characterization of barium titanate films (BTO or BaTiO3 due to its chemical formula) deposited by spin coating on crystalline silicon (Si) substrates and CPW resonators using the Sol-Gel technique with a Ba/Ti molar ratio of 0.5/0.5. The coplanar waveguides were manufactured on alumina substrates (Al2O3) with 3 μm of gold (Au) metallization using the laser ablation technique. The scanning electron microscopy (SEM) with X-ray energy dispersion spectrometry (EDS) showed the existence of a BTO film with an elementary composition of 14.62% barium and 5.65% titanium, with a thickness of 0.77 μm measured using the profilometric mode of the atomic force microscopy (AFM). Dielectric characterization was carried out by comparing the frequency response (parameter S21) of a CPW resonator with deposited BTO film and another reference resonator (without film) using a network vector analyzer (VNA). These measurements are compared in turn with computational simulations to obtain the dielectric properties. For the BTO film a relative dielectric constant (ɛr) of 160 was determined with a loss tangent (Tandδ) of 0.012 for a frequency of 3.60 GHz. The dielectric constant and the ferroelectric property of the material produced are quite promising for applications in microwave circuits, such as miniaturization and tuning.<hr/>Resumen El presente trabajo se centra en la caracterización estructural, morfológica y dieléctrica de películas de titanato de bario (BTO o BaTiO3 por su fórmula química) depositadas mediante la técnica que proporciona recubrimiento por medio de un sistema de rotación (spin coating) sobre substratos de silicio cristalino (Si) y resonadores CPW a través del método Sol-Gel, utilizando una relación molar Ba/Ti de 0.5/0.5. Las guías de ondas se fabricaron sobre substratos de alúmina (Al2O3) con 3 μm de metalización en oro (Au) empleando la técnica de ablación láser. La microscopia electrónica de barrido (SEM) con espectrometría de dispersión de energía de rayos X (EDS) permitió evidenciar la existencia de una película de BTO con una composición elemental de 14.62 % de bario y 5.65 % de titanio, además de un espesor de 0.77 μm medido utilizando la modalidad perfilométrica de la microscopia de fuerza atómica (AFM). La caracterización dieléctrica se llevó a cabo mediante la comparación de la respuesta en frecuencia (parámetro S21) de un resonador CPW con película de BTO depositada y otro resonador de referencia (sin película) usando un analizador vectorial de red (VNA). Estas medidas se comparan a su vez con simulaciones computacionales para obtener las propiedades dieléctricas. Para la película de BTO se determinó una constante dieléctrica relativa (ɛr) de 160 con tangente de pérdida (Tandδ) de 0.012 para una frecuencia de 3.60 GHz. La constante dieléctrica y la propiedad ferroeléctrica del material elaborado son características bastante promisorias para aplicaciones en circuitos de microondas, tales como miniaturización y sintonizabilidad.<hr/>Resumo O presente trabalho centra-se na caracterização estrutural, morfológica e dielétrica de películas de titanato de bário (BTO ou BaTiO3 por sua fórmula química) depositados mediante a técnica que proporciona recobrimento por meio de um sistema de rotação (spin coating) sobre substratos de silício cristalino (Si) e ressonadores CPW mediante a técnica Sol-Gel, utilizando uma relação molar Ba/Ti de 0.5/0.5. As guias de ondas fabricaram-se sobre substratos de alumina (Al2O3) com 3 μm de metalização em ouro (Au) empregando a técnica de ablação laser. A microscopia eletrônica de varredura (SEM) com espectrometria de dispersão de energia de raios X (EDS) permitiu evidenciar a existência de uma película de BTO com uma composição elementar de 14.62 % de bário e 5.65 % de titânio, ademais de uma espessura de 0.77 μm medido utilizando a modalidade perfilométrica da microscopia de força atômica (AFM). A caracterização dielétrica levou-se a cabo mediante a comparação da resposta em frequência (parâmetro S21) de um ressonador CPW com película de BTO depositada e outro ressonador de referência (sem película) usando um analisador vectorial de rede (VNA). Estas medidas comparam-se a sua vez com simulações computacionais para obter as propriedades dielétricas. Para a película de BTO determinou-se uma constante dielétrica relativa (ɛr) de 160 com tangente de perda (Tandδ) de 0.012 para uma frequência de 3.60 GHz. A constante dielétrica e a propriedade ferroelétrica do material elaborado são características bastante promissoras para aplicações em circuitos de micro-ondas, tais como miniaturização e sintonizabilidade. <![CDATA[Análise de factibilidade para a geração de biocombustível sólido a partir da planta Ulex Europaeus]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100006&lng=pt&nrm=iso&tlng=pt Abstract The Ulex europaeus (also known as Common Gorse) represents a threat to the native ecosystems of different Colombian regions. Recently, the Ministry of the Environment and Sustainable Development introduced protocols for its prevention and management. Even though the Ulex europaeus has a high calorific value, a wide-spread solution for its post-processing is not yet available in its affected areas. In Colombia, the most common method for the disposal of the harvested plant is incineration, given that this is the suggested method by Resolution 684 of 2018. Due to the importance of the problem, this investigation is focused on studying the viability of creating solid biofuel alternatives derived from the plant. Grinded material and briquettes were produced with different log/foliage ratios in order to investigate both the domestic and industrial applications of the plant; e.g. heating, cooking and cogeneration, respectively. A proximate and ultimate analysis was performed on the produced samples. The generated solid biofuel presents 75% of the carbon heat value, a high volatile material content (83.3%), and low ash and Sulphur residues (1.41% and 0.15% respectively). These results applied to both dry and humid samples, demonstrated that the produced solid biofuel is adequate for applications oriented towards heat generation. However, further analysis and process optimization is required in order to establish the generation of solid biofuel as an appropriate use of the Ulex europaeus remnants. By further analyzing the overall process; from plant removal, through residue disposal, and finally remnant conversion, the investigations value chain can be better established and possibly established for real world implementation.<hr/>Resumen La planta Ulex Europaeus (Retamo espinoso) representa una amenaza para los ecosistemas de diferentes regiones en Colombia, lo cual llevó al Ministerio de Ambiente y Desarrollo Sostenible a definir una política que incentive la resolución a esta problemática además de protocolos para su contención y manejo. Debido a la relevancia que se le ha dado, esta investigación consiste en un primer estudio de viabilidad para la producción de biocombustible sólido a partir de la planta, que, aun teniendo propiedades caloríficas importantes, todavía no se tiene una respuesta definitiva sobre el uso y procesamiento de los residuos de la Ulex Europaeus. En este trabajo se hace énfasis, en la fabricación y evaluación de briquetas y mezclas de material molido con diferentes porcentajes tronco/follaje. Esto se hizo con el fin de fabricar biocombustible sólido en diferentes formas tanto para uso doméstico como industrial; p. ej. cogeneración. Las muestras producidas fueron sometidas a análisis próximo y último para la caracterización del producto generado. Los resultados demostraron que el biocombustible producido tiene un poder calorífico comparable con el del carbón (75% del carbón), un alto porcentaje de material volátil (83.3%), y bajo contenido de ceniza y azufre (1.41% y 0.51% respectivamente). Esto aplica tanto para material seco como para el húmedo indicando que el biocombustible producido a partir de la planta parecería prometedor para aplicaciones de generación de calor. Sin embargo, se necesitan ulteriores análisis y optimizaciones del proceso antes de pensar en la generación de biocombustible sólido como una posible solución para el uso de los residuos de Ulex Europaeus. Al analizar todo el proceso más a fondo: desde la recolección de la planta in situ, pasando por la disposición del residuo final, y finalmente la conversión del material, se puede mejorar el entendimiento de la cadena de valor del mismo y buscar su implementación en el mundo real.<hr/>Resumo A planta Ulex Europaeus (Retamo espinhoso) representa uma ameaça para os ecossistemas de diferentes regiões na Colômbia, o qual levou o Ministério de Ambiente e Desenvolvimento Sustentável a definir uma política que incentive a resolução a esta problemática além de protocolos para sua contenção e manejo. Devido à relevância que se lhe tem dado, esta pesquisa consiste em um primeiro estudo de viabilidade para a produção de biocombustível sólido a partir da planta, que, ainda tendo propriedades caloríficas importantes, todavia não se tem uma resposta definitiva sobre o uso e o processamento dos resíduos da Ulex Europaeus. Neste trabalho faz-se ênfase, na fabricação e avaliação de briquetes e misturas de material moído com diferentes porcentagens tronco/folhagem. Isto fez-se com o fim de fabricar biocombustível sólido em diferentes formas tanto para uso doméstico como industrial; p. ex. cogeração. As amostras produzidas foram submetidas a análise próxima e última para a caracterização do produto gerado. Os resultados demonstraram que o biocombustível produzido tem um poder calorífico comparável com o do carvão (75% do carvão), uma alta porcentagem de material volátil (83.3%), e baixo conteúdo de cinza e enxofre (1.41% e 0.51% respectivamente). Isto aplica tanto para material seco como para o húmido indicando que o biocombustível produzido a partir da planta pareceria prometedor para aplicações de geração de calor. Porém, necessitam-se posteriores análises e optimizações do processo antes de pensar na geração de biocombustível sólido como uma possível solução para o uso dos resíduos de Ulex Europaeus. Ao analisar todo o processo mais a fundo: desde a coleta da planta in situ, passando pela disposição do resíduo final, e finalmente pela conversão do material, pode-se melhorar o entendimento da cadeia de valor do mesmo e buscar sua implementação no mundo real. <![CDATA[Caracterização da Infraestrutura Verde a nível local com Sistemas de Informação Geográfica, Tunja (Colômbia)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100007&lng=pt&nrm=iso&tlng=pt Abstract This article presents a characterization of the areas likely to integrate a Green Infrastructure (GI) for the Tunja city at local scale and spatial analysis is mainly applied to the land cover and land use of the study area. To identify the areas that could be integrated into the GI, four thematic dimensions were first zoned (ecological connectivity, multifunctionality, ecological status and accessibility to the population); they were later normalized on a scale of 1 to 10 to make them comparable; the dimensions were combined by an Analytic Hierarchy Process (AHP) and finally those areas whose pixel values ​​were above the third quartile were selected in the integration of the dimensions. The zoned dimensions the following weights were obtained: ecological connectivity (48%), multifunctionality (30%), ecological status (13%) and accessibility to the population (9%). It was found that the main areas likely to integrate into the GI are concentrated in the western fringe of the city; however, the northwestern area has a greater fragmentation and lower ecological status than the southwestern zone (which refers mainly to the Protective Forest Reserve El Malmo). Likewise, several areas or patches were identified to the south of the city (referring mainly to wooded areas and presence of wetlands) as well as small wooded areas in the urban perimeter, but with greater isolation among the other areas of GI. Within the urban perimeter the zoning of areas that could be integrated into a GI was practically null.<hr/>Resumen Se presenta una caracterización de las áreas susceptibles de integrarse a la Infraestructura Verde (IV) del municipio de Tunja a una escala local y aplicando principalmente análisis espacial sobre las coberturas y usos del suelo de la zona de estudio. Para identificar las áreas susceptibles de integrarse a la IV se zonificó en primer lugar cuatro dimensiones temáticas (conectividad ecológica, multifuncionalidad, estado ecológico y accesibilidad a la población); posteriormente se normalizaron en una escala de 1 a 10 para hacerlas comparables; enseguida se combinaron las dimensiones mediante un Proceso de Análisis Jerárquico (AHP, siglas en inglés) y finalmente se seleccionaron aquellas zonas cuyos valores de pixel estaban por encima del tercer cuartil de datos en la integración de las dimensiones. En las dimensiones zonificadas se obtuvieron los siguientes pesos: conectividad ecológica (48%), multifuncionalidad (30%), estado ecológico (13%) y accesibilidad a la población (9%). Se encontró que las principales áreas susceptibles de integrarse a la IV se concentran en la franja occidental del municipio; sin embargo, la zona noroccidental presenta una mayor fragmentación y menor estado ecológico que la zona suroccidental (la cual hace referencia principalmente a la Reserva Forestal Protectora El Malmo). Igualmente se identificaron varias áreas o parches al sur del municipio (haciendo referencia principalmente a zonas arboladas y presencia de humedales) así como pequeñas áreas arboladas en el perímetro urbano, pero con un mayor aislamiento entre las demás áreas de IV. Dentro del perímetro urbano la zonificación de áreas susceptibles de integrarse a una IV fue prácticamente nula.<hr/>Resumo Apresenta-se uma caracterização das áreas susceptíveis de integrar-se à Infraestrutura Verde (IV) do município de Tunja a uma escala local e aplicando principalmente análise espacial sobre as coberturas e usos do solo da zona de estudo. Para identificar as áreas susceptíveis de integrar-se à IV zoneou-se em primeiro lugar quatro dimensões temáticas (conectividade ecológica, multifuncionalidade, estado ecológico e acessibilidade à população); posteriormente normalizaram-se em uma escala de 1 a 10 para fazê-las comparáveis; em seguida combinaram-se as dimensões mediante um Processo de Análise Hierárquica (AHP, sigla em inglês) e finalmente selecionaram-se aquelas zonas cujos valores de pixel estavam acima do terceiro quartil de dados na integração das dimensões. Nas dimensões zoneadas obtiveram-se os seguintes pesos: conectividade ecológica (48%), multifuncionalidade (30%), estado ecológico (13%) e acessibilidade à população (9%). Encontrou-se que as principais áreas susceptíveis de se integrar à IV concentram-se na franja ocidental do município; porém, a zona noroeste apresenta uma maior fragmentação e menor estado ecológico que a zona sudeste (a qual faz referência principalmente à Reserva Florestal Protetora El Malmo). Igualmente identificaram-se várias áreas ou parches ao sul do município (fazendo referência principalmente a zonas arborizadas e presença de pântanos) assim como pequenas áreas arborizadas no perímetro urbano, mas com um maior isolamento entre as demais áreas de IV. Dentro do perímetro urbano o zoneamento de áreas susceptíveis de integrar-se a uma IV foi praticamente nula. <![CDATA[Elaboração de um material composto a partir de fibras de palma de óleo e uma emulsão ecológica de poliestireno expandido post-consumo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100008&lng=pt&nrm=iso&tlng=pt Abstract The overproduction of plastics and the wide availability of natural fibers that become a source of contamination before ending their useful life, in a context of environmental crisis, has led researchers to study how to integrate them into the production of biocomposites. For this project, the development of a composite material that integrated expanded post-consumer polystyrene (EPS) and palm fiber (OPEFB) was proposed. Spine fibers were obtained from palm growers in the region, being processed by drying, grinding and sieving with a particle size (Mesh of 30,40, 50, 60 and 70). To obtain the solvent of the EPS, a volume of orange essential oil (Citrus sinensis) was distilled off by steam and the amount of d-limonene present was quantified using the gas chromatography technique coupled to mass spectrometry. Subsequently, the EPS was dissolved and a solubility of 0.5 g / mL was reached and with this volume a 1: 2 water / EPS-Citrus Sinensis emulsion was formulated which was characterized using the optical microscopy technique and two dyes of different polarity to observe its affinity with both phases, allowing it to be classified as a W/O type macroemulsion. The agglomerates were made by a process of molding, pressing and heating for baking. All the above parameters were kept constant and only the fiber size varied. The tests of resistance to compression and hardness showed that, to a smaller fiber size, less hardness, resistance to compression and stiffness, so the specimens made with mesh fibers (Mesh) No. 40 showed better performance in mechanical tests.<hr/>Resumen La sobreproducción de plásticos y la amplia disponibilidad de fibras naturales que se convierten en un foco de contaminación antes de terminar su vida útil, en un contexto de crisis ambiental, ha hecho que los investigadores estudien la manera de integrarlos en la producción de biocompuestos. Para este proyecto se planteó la elaboración de un material compósito que integrara poliestireno expandido post-consumo (EPS) y raquis de palma (OPEFB). Las fibras OPEFB se consiguieron a partir de palmicultoras de la región, procesándose mediante secado, molienda y tamizado con una granulometría (Mesh de 30,40, 50, 60 y 70). Para obtener el solvente del EPS se destiló por arrastre de vapor un volumen de aceite esencial de naranja (Citrus sinensis) y se cuantificó la cantidad de d-limoneno presente usando la técnica de cromatografía de gases acoplada a espectrometría de masas. Posteriormente, se disolvió el EPS y se alcanzó una solubilidad de 0,5 g/mL y con un volumen de 1 L se formuló una emulsión 1:2 agua/EPS-Citrus Sinensis que fue caracterizada usando la técnica de microscopía óptica y dos colorantes de distinta polaridad para observar su afinidad con ambas fases, permitiendo clasificarla como una macroemulsión de tipo W/O. Los aglomerados se elaboraron mediante un proceso de moldeo, prensado y calentamiento. Se mantuvieron constantes todos los parámetros anteriores y sólo varió el tamaño de la fibra. Los ensayos de resistencia a la compresión y dureza mostraron que, a menor tamaño de fibra, menor dureza, resistencia a compresión y rigidez, por lo que las probetas elaboradas con fibras de malla (Mesh) No. 40 mostraron mejor desempeño en los ensayos mecánicos.<hr/>Resumo A superprodução de plásticos e a ampla disponibilidade de fibras naturais que se convertem em um foco de contaminação antes de terminar sua vida útil, em um contexto de crise ambiental, tem feito com que os pesquisadores estudem a maneira de integrá-los na produção de biocomponentes. Para este projeto planteou-se a elaboração de um material compósito que integrasse poliestireno expandido post-consumo (EPS) e raques de palma (OPEFB). As fibras OPEFB conseguiram-se a partir de cultivadores de palma da região processando-se mediante secado, moagem e tamisado com uma granulometria (Mesh de 30, 40, 50, 60 e 70). Para obter o solvente do EPS destilou-se por arrastre de vapor um volume de óleo essencial de laranja (Citrus sinensis) e quantificou-se a quantidade de d-limoneno presente usando a técnica de cromatografia de gases acoplada a espectrometria de massas. Posteriormente, dissolveu-se o EPS e alcançou-se uma solubilidade de 0,5 g/mL e com um volume de 1 L formulou-se uma emulsão 1:2 água/EPS-Citrus Sinensis que foi caracterizada usando a técnica de microscopia óptica e dois colorantes de distinta polaridade para observar sua afinidade com ambas fases, permitindo classificá-la como uma macroemulsão de tipo W/O. Os aglomerados elaboraram-se mediante um processo de moldagem, prensado e aquecimento. Mantiveram-se constantes todos os parâmetros anteriores e só variou o tamanho da fibra. Os ensaios de resistência à compressão e dureza mostraram que, quanto menor é o tamanho da fibra, menor é a dureza, a resistência à compressão e a rigidez, pelo que as provetas elaboradas com fibras de malha (Mesh) No. 40 mostraram melhor desempenho nos ensaios mecânicos. <![CDATA[Modelo neuronal para a predição de mermas no processo de envelhecimento de runs]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100009&lng=pt&nrm=iso&tlng=pt Abstract The rum aging process shows volume losses, called wastage. The numerical operation variables: product, boardwalk, horizontal and vertical positions, date, volume, alcoholic degree, temperature, humidity and aging time, recorded in databases, contain valuable information to study the process. MATLAB 2017 software was used to estimate volume losses. In the modeling of the rum aging process, the multilayer perceptron neuronal network with one and two hidden layers was used, varying the number of neurons in these between 4 and 10. The Levenberg-Marquadt (LM) and Bayesian training algorithms were compared (Bay) The increase in 6 consecutive iterations of the validation error and 1,000 as the maximum number of training cycles were the criteria used to stop the training. The input variables to the network were: numerical month, volume, temperature, humidity, initial alcoholic degree and aging time, while the output variable was wastage. 546 pairs of input/output data were processed. The statistical Friedman and Wilcoxon tests were performed to select the best neural architecture according to the mean square error (MSE) criteria. The selected topology has a 6-4-4-1 structure, with an MSE of 2.1∙10-3 and a correlation factor (R) with experimental data of 0.9898. The neural network obtained was used to simulate thirteen initial aging conditions that were not used for training and validation, detecting a coefficient of determination (R2) of 0.9961.<hr/>Resumen El proceso de añejamiento de ron experimenta pérdidas de volumen, denominadas mermas. Las variables numéricas de operación: producto, rambla, posiciones horizontal y vertical, fecha, volumen, grado alcohólico, temperatura, humedad y tiempo de añejamiento, registradas en bases de datos, contienen información valiosa para estudiar el proceso. Se utilizó el software MATLAB 2017 para estimar las pérdidas en volumen. En la modelación del proceso de añejamiento de ron se utilizó la red neuronal perceptrón multicapa con una y dos capas ocultas, variándose el número de neuronas en estas entre 4 y 10. Se compararon los algoritmos de entrenamiento Levenberg-Marquadt (L-M) y Bayesiano (Bay). El incremento en 6 iteraciones consecutivas del error de validación y 1 000 como número máximo de ciclo de entrenamiento fueron los criterios utilizados para detener el entrenamiento. Las variables de entrada a la red fueron: mes numérico, volumen, temperatura, humedad, grado alcohólico inicial y tiempo de añejamiento, mientras que la variable de salida fue mermas. Se procesaron 546 pares de datos de entrada/salida. Se realizaron las pruebas estadísticas de Friedman y Wilcoxon para la selección de la arquitectura neuronal de mejor comportamiento de acuerdo al criterio del error cuadrático medio (MSE). La topología seleccionada presenta la estructura 6-4-4-1, con un MSE de 2.1∙10-3 y un factor de correlación (R) con los datos experimentales de 0.9981. La red neuronal obtenida se empleó para la simulación de trece condiciones iniciales de añejamiento que no fueron empleadas para el entrenamiento y la validación, detectándose un coeficiente de determinación (R2) de 0.9961.<hr/>Resumo O processo de envelhecimento de rum experimenta perdas de volume, denominadas mermas. As variáveis numéricas de operação: produto, rambla, posições horizontal e vertical, data, volume, grau alcoólico, temperatura, humidade e tempo de envelhecimento, registradas em bases de dados, contêm informação valiosa para estudar o processo. Utilizou-se o software MATLAB 2017 para estimar as perdas em volume. Na modelação do processo de envelhecimento de rum utilizou-se a rede neuronal perceptron multicamada com uma e duas camadas ocultas, variando-se o número de neurônios nestas entre 4 e 10. Compararam-se os algoritmos de treinamento Levenberg-Marquadt (L-M) e Bayesiano (Bay). O incremento em 6 iterações consecutivas do erro de validação e 1 000 como número máximo de ciclo de treinamento foram os critérios utilizados para deter o treinamento. As variáveis de entrada à rede foram: mês numérico, volume, temperatura, humidade, grau alcoólico inicial e tempo de envelhecimento, enquanto que a variável de saída foi mermas. Processaram-se 546 pares de dados de entrada/saída. Realizaram-se as provas estatísticas de Friedman e Wilcoxon para a seleção da arquitetura neuronal de melhor comportamento de acordo ao critério do erro quadrático médio (ECM). A topologia selecionada apresenta a estrutura 6-4-4-1, com um ECM de 2.1∙10-3 e um fator de correlação (R) com os dados experimentais de 0.9981. A rede neuronal obtida empregou-se para a simulação de treze condições iniciais de envelhecimento que não foram empregadas para o treinamento e a validação, detectando-se um coeficiente de determinação (R2) de 0.9961. <![CDATA[Geração de modelos 3D de tumor desde imagens DICOM, para planificação virtual de sua recessão]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100010&lng=pt&nrm=iso&tlng=pt Abstract Medical images are essential for diagnosis, planning of surgery and evolution of pathology. The advances in technology have developed new techniques to obtain digital images with more details, in return this has also led to disadvantages, such as: the analysis of large volumes of information, long time to determine an affected region and difficulty in defining the malignant tissue for its later extirpation, among the most relevant. This article presents an image segmentation strategy and the optimization of a method for generating three-dimensional models. A prototype was implemented in which it was possible to evaluate the segmentation algorithms and 3D reconstruction technique, allowing to visualize the tumor model from different points of view through virtual reality. In this investigation, we evaluate the computational cost and user experience, the parameters selected in terms of computational cost are the time and consumption of RAM, we used 140 MRI images each with dimensions 260x320 pixel, and as a result, we obtained an approximate time of 37.16s and consumption in RAM of 1.3GB. Another experiment carried out is the segmentation and reconstruction of a tumor, this model is formed by a three-dimensional mesh made up of 151 vertices and 318 faces. Finally, we evaluate the application, with a usability test applied to a sample of 20 people with different areas of knowledge. The results show that the graphics presented by the software are pleasant, they also show that the application is intuitive and easy to use. Additionally, it is mentioned that it helps improve the understanding of medical images.<hr/>Resumen Las imágenes médicas son imprescindibles para la realización del diagnóstico, planificación de cirugía y evolución de la patología. El avance de la tecnología ha desarrollado nuevas técnicas para obtener imágenes digitales con más detalles, esto a su vez ha llevado a tener desventajas, entre ellas: el análisis de grandes volúmenes de información, tiempo prolongado para determinar una región afectada y dificultad para definir el tejido maligno para su posterior extirpación, entre las más relevantes. Este artículo presenta una estrategia de segmentación de imágenes y la optimización de un método de generación de modelos tridimensionales. Se implementó un prototipo en el que se logró evaluar los algoritmos de segmentación y técnica de reconstrucción 3D permitiendo visualizar el modelo del tumor desde diferentes puntos de vista mediante realidad virtual. En esta investigación, se evalúa el costo computacional y la experiencia del usuario, los parámetros seleccionados en términos de costo computacional son el tiempo y el consumo de RAM, se utilizaron 140 imágenes MRI cada una de ellas con dimensiones de 260x320 píxeles, y como resultado, se obtuvo un tiempo aproximado de 37.16s y el consumo de memoria RAM es de 1.3GB. Otro experimento llevado a cabo es la segmentación y reconstrucción de un tumor, este modelo está formado por una malla tridimensional que contiene 151 vértices y 318 caras. Finalmente, se evalúa la aplicación con una prueba de usabilidad aplicada a una muestra de 20 personas con diferentes áreas de conocimiento, los resultados muestran que los gráficos presentados por el software son agradables, también se evidencia que el software es intuitivo y fácil de usar. También mencionan que ayuda a mejorar la compresión de imágenes médicas.<hr/>Resumo As imagens médicas são imprescindíveis para a realização do diagnóstico, planificação de cirurgia e evolução da patologia. O avanço da tecnologia tem desenvolvido novas técnicas para obter imagens digitais com mais detalhes, isto, por sua vez, tem algumas desvantagens, entre elas: a análise de grandes volumes de informação, tempo prolongado para determinar uma região afetada e dificuldade para definir o tecido maligno para sua posterior extirpação, entre as mais relevantes. Este artigo apresenta uma estratégia de segmentação de imagens e a optimização de um método de geração de modelos tridimensionais. Implementou-se um protótipo no qual logrou-se avaliar os algoritmos de segmentação e técnica de reconstrução 3D, permitindo visualizar o modelo do tumor desde diferentes pontos de vista mediante realidade virtual. Nesta pesquisa, avalia-se o custo computacional e a experiência do usuário; os parâmetros selecionados em termos de custo computacional são o tempo e o consumo de RAM. Utilizaram-se 140 imagens MRI cada uma delas com dimensões de 260x320 pixels, e como resultado, obteve-se um tempo aproximado de 37.16s e o consumo de memória RAM é de 1.3GB. Outro experimento realizado é a segmentação e reconstrução de um tumor; este modelo está formado por uma rede tridimensional que contém 151 vértices e 318 caras. Finalmente, avalia-se a aplicação com uma prova de usabilidade aplicada a uma amostra de 20 pessoas com diferentes áreas de conhecimento, os resultados mostram que os gráficos apresentados pelo software são agradáveis, também se evidencia que o software é intuitivo e fácil de usar. Também mencionam que ajuda a melhorar a compressão de imagens médicas. <![CDATA[So agrícola de biosólidos gerados no tratamento de água residual de uma indústria de alimentos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100011&lng=pt&nrm=iso&tlng=pt Abstract Biosolids generated as waste from a Wastewater Treatment Plant (WTP) are a pollution problem by the provision of large volumes in landfills and the waste of their potential as an agricultural input. The research conducted trials to analyze the agricultural use of biosolids in a food company's WTP, their effects on the germination and development of the vegetal plant species Coriandrum sativum were assessed through trials that mixed different amounts of biosolids, land soil and commercial fertilizer, and took into account: planting site characteristics, biosolid and Coriandrum sativum. A random block design was made to compare treatments understudy and resulted in the combination of 50% biosolids with 50% land soil was the best test by germination, height, mass and length of the roots of the plant studied. In the evaluation of results, the behavior of dependent variables was analyzed: germination, height, mass and length with respect to the four test types with their respective repetitions using ANOVA and Fisher's significant minimum difference (LSD) to determine the effect the biosolid had on the plant and to know the optimal dose for its development. The germination rate (GR) was also determined in the trials, and 98.3% was found for the best treatment indicating that the substrate does not contain phytotoxic elements.<hr/>Resumen Los biosólidos generados como residuo de una Planta de Tratamiento de Aguas Residuales (PTAR) son un problema de contaminación por la disposición de grandes volúmenes en los rellenos sanitarios y el desperdicio de su potencial como insumo agrícola. En la investigación se realizaron ensayos para analizar el uso agrícola de los biosólidos de la PTAR de una empresa de alimentos; se evaluaron efectos en la germinación y desarrollo de la especie vegetal Coriandrum sativum mediante ensayos que mezclaron diferentes cantidades de biosólidos, suelo del terreno y fertilizante comercial, y se tuvieron en cuenta: características del lugar de siembra, del biosólido y de Coriandrum sativum. Se hizo diseño de bloques al azar para comparar los tratamientos bajo estudio y se obtuvo como resultado que la combinación de 50% biosólidos con 50% suelo del terreno fue el mejor ensayo por germinación, altura, masa y longitud de las raíces de la planta estudiada. En la evaluación de resultados se analizó el comportamiento de las variables dependientes: germinación, altura, masa y longitud con respecto a los cuatro tipos de ensayo con sus respectivas repeticiones mediante ANOVA y diferencia mínima significativa (LSD) de Fisher para determinar el efecto que tuvo el biosólido sobre la planta y conocer la dosis óptima para su desarrollo. También se determinó el índice de germinación (IG) en los ensayos, y se encontró para el mejor tratamiento 98.3% que indica que el sustrato no contiene elementos fitotóxicos.<hr/>Resumo Os biosólidos gerados como resíduo de uma Planta de Tratamento de Águas Residuais (PTAR) são um problema de contaminação pela disposição de grandes volumes nos aterros sanitários e o desperdício de seu potencial como insumo agrícola. Na pesquisa realizaram-se ensaios para analisar o uso agrícola dos biosólidos da PTAR de uma empresa de alimentos; avaliaram-se efeitos na germinação e desenvolvimento da espécie vegetal Coriandrum sativum mediante ensaios que misturaram diferentes quantidades de biosólidos, solo do terreno e fertilizante comercial, e levaram-se em conta: características do lugar de plantio, do biosólido e de Coriandrum sativum. Desenharam-se blocos aleatoriamente para comparar os tratamentos sob estudo e obteve-se como resultado que a combinação de 50% biosólidos com 50% solo do terreno foi o melhor ensaio por germinação, altura, massa e longitude das raízes da planta estudada. Na avaliação de resultados analisou-se o comportamento das variáveis dependentes: germinação, altura, massa e longitude, com respeito aos quatro tipos de ensaio com suas respectivas repetições mediante ANOVA e diferença mínima significativa (LSD) de Fisher para determinar o efeito que teve o biosólido sobre a planta e conhecer a dose ideal para seu desenvolvimento. Também se determinou o índice de germinação (IG) nos ensaios, e encontrou-se para o melhor tratamento 98,3% que indica que o substrato não contém elementos fitotóxicos. <![CDATA[Desenho e implementação de um emulador para uma turbina eólica de baixa potência através do conserto motor de indução-gerador de ímãs permanentes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100012&lng=pt&nrm=iso&tlng=pt Abstract This paper presents the design and construction stage of a low power wind turbine emulator, used at the laboratory level, to reproduce different wind profiles. There are several types of wind emulators, among which the wind tunnel emulators stand out. These emulators use a motor with a propeller on their axis to obtain the desired wind speed. However, in the present work -and done from a computer- speed control is developed for a three-phase induction motor, thus driving a permanent magnet generator. The motor-generator group is controlled through a program developed in the Labview software. Also, it has the particularity of operating automatically, being able to load different speed data. Such data is associated with a particular power that takes into account the selected wind profile and can operate through manual control of the wind speed. However, this depends on the frequency given. The emulator operation is validated experimentally through two scenarios: the first one emulates the curve presented by the Eolos turbine and subsequently compares the results obtained, whereas the second one loads the wind profile of Uribía-Guajira -a region in Colombia- achieving that the emulated wind profile can be accurately seen in the loaded wind profile.<hr/>Resumen En este artículo se presenta la etapa de diseño y construcción de un emulador de una turbina eólica de baja potencia, el cual se utiliza a nivel de laboratorio, con el fin de reproducir diferentes perfiles de viento. Existen varios tipos de emuladores eólicos entre los que se destacan los de túnel de viento, estos utilizan un motor con hélice en su eje para obtener la velocidad del viento deseada. Sin embargo, en el presente trabajo se desarrolla un control de velocidad, desde un computador, para un motor de inducción trifásico, impulsando así, un generador de imanes permanentes. El conjunto de equipos motor-generador es controlado a través de un programa desarrollado en el software Labview. Además, tiene la particularidad de operar de manera automática, pudiendo cargar diferentes datos de velocidad, los cuales se encuentran asociados a una potencia en particular teniendo en cuenta el perfil de viento seleccionado, así como operar a través de un control manual de la velocidad del viento, pero en función de la frecuencia. La operación del emulador se valida de forma experimental a través de dos escenarios, el primero emulando la curva presentada por la turbina Eolos y posterior comparación de los resultados obtenidos, y la segunda cargando el perfil de viento de Uribía-Guajira, en Colombia, consiguiendo que el perfil de viento emulado logre verse fiel al perfil de viento cargado.<hr/>Resumo Neste artigo apresenta-se a etapa de desenho e construção de um emulador de uma turbina eólica de baixa potência, o qual utiliza-se a nível de laboratório, com o fim de reproduzir diferentes perfis de vento. Existem vários tipos de emuladores eólicos, entre os quais se destacam os de túnel de vento, estes utilizam um motor com hélice em seu eixo para obter a velocidade do vento desejada. Porém, no presente trabalho desenvolve-se um controle de velocidade desde um computador para um motor de indução trifásico, impulsando assim, um gerador de ímãs permanentes. O conjunto de equipamentos motor-gerador é controlado através de um programa desenvolvido no software Labview. Ademais, tem a particularidade de operar de maneira automática, podendo carregar diferentes dados de velocidade, os quais encontram-se associados a uma potência em particular, tendo em conta o perfil de vento selecionado; também, pode operar através de um controle manual da velocidade do vento, mas em função da frequência. A operação do emulador valida-se de forma experimental através de dois cenários: o primeiro emulando a curva apresentada pela turbina Eolos e com a posterior comparação dos resultados obtidos, e a segunda carregando o perfil de vento de Uribía-Guajira, na Colômbia, conseguindo que o perfil de vento emulado permita ver-se fiel ao perfil de vento carregado. Finalmente, apresentam-se as conclusões. <![CDATA[Reconhecimento de objetos através de técnicas de inteligência artificial]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100013&lng=pt&nrm=iso&tlng=pt Abstract This paper describes a methodology for object recognition categorized as polyhedron and non-polyhedron. This recognition is achieved through digital image processing combined with artificial intelligence algorithms, such as Hopfield networks. The procedure consists of processing images in search of patterns to train the system. The process is carried out through three stages: i) Segmentation, ii) Smart recognition, and iii) Feature extraction; as a result, images of objects are obtained and trained in the designed neuronal network. Finally, Hopfield's network is used to establish the object type as soon as it receives one. The proposed methodology was evaluated in a real environment with a considerable number of detected images; the noisy images recognition uncertainty was 2.6%, an acceptable result considering variable light, shape and color. The results obtained from this experiment show a high recognition level, which represents 97.4%. Out of this procedure, we can assume that it is possible to train new patterns, and it is expected that the model will be able to recognize them. Potentially, the proposed methodology could be used in a vast range of applications, such as object identification in industrial environments, grasping objects using manipulators or robotic arms, tools for blind patients, among other applications.<hr/>Resumen En el presente artículo se describe una metodología para el reconocimiento de objetos, los cuales se han clasificado en poliedros y no poliedros, este reconocimiento se logra mediante procesamiento digital de imágenes combinada con el uso de algoritmos de inteligencia artificial, como son las redes neuronales de Hopfield. En una primera etapa se procesa las imágenes, con el fin de obtener los patrones a entrenar, dicho proceso fue desarrollado en tres etapas: i.) Segmentación, ii.) Reconocimiento inteligente, iii.) Extracción de características, a partir de los resultados obtenidos, en este caso imágenes de los objetos, estos elementos se entrenan en la red neuronal diseñada, finalmente se hace uso de la red neuronal de Hopfied propuesta, la cual, al recibir un nuevo elemento o imagen de un objeto, determinará el tipo de objeto. La metodología propuesta fue evaluada en un ambiente real, mostrando un amplio número de imágenes detectadas, la incertidumbre al reconocer imágenes ruidosas, representa el 2,6% de la muestra, ofreciendo una respuesta aceptable frente a condiciones de luz, forma y color variables, los resultados obtenidos a partir del experimento evidencian un grado alto de reconocimiento del 97.4%, consecuentemente, a partir de este procedimiento es posible entrenar nuevos patrones con nuevas formas, y se espera que este modelo de reconocimiento sea capaz de reconocer patrones completamente nuevos. La metodología propuesta potencialmente puede ser utilizada en diferentes aplicaciones, como es la identificación de objetos en procesos industriales, funciones de agarre de objetos mediante el uso de manipuladores o brazos robóticos, en el área de la rehabilitación como ayuda a personas con limitaciones visuales, entre otras.<hr/>Resumo No presente artigo descreve-se uma metodologia para o reconhecimento de objetos, os quais se tem classificado em poliedros e não poliedros, este reconhecimento logra-se mediante processamento digital de imagens combinada com o uso de algoritmos de inteligência artificial, como são as redes neuronais de Hopfield. Em uma primeira etapa processam-se as imagens, com o fim de obter os padrões para treinar, dito processo foi desenvolvido em três etapas: i.) Segmentação, ii.) Reconhecimento inteligente, iii.) Extração de características, a partir dos resultados obtidos, neste caso imagens dos objetos, estes elementos treinam-se na rede neuronal desenhada, finalmente faz-se uso da rede neuronal de Hopfied proposta, a qual, ao receber um novo elemento ou imagem de um objeto, determinará o tipo de objeto. A metodologia proposta foi avaliada em um ambiente real, mostrando um amplo número de imagens detectadas; a incerteza ao reconhecer imagens ruidosas, representa 2,6% da amostra, oferecendo uma resposta aceitável frente a condições de luz, forma e cor variáveis, os resultados obtidos a partir do experimento evidenciam um grau alto de reconhecimento de 97.4%, consequentemente, a partir deste procedimento é possível treinar novos padrões com novas formas, e espera-se que este modelo de reconhecimento seja capaz de reconhecer padrões completamente novos. A metodologia proposta potencialmente pode ser utilizada em diferentes aplicações, como é a identificação de objetos em processos industriais, funções de agarre de objetos mediante o uso de manipuladores ou braços robóticos, na área da reabilitação como ajuda a pessoas com limitações visuais, entre outras. <![CDATA[Caracterização de gerador de indução para um gerador eólico de média e baixa potência]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100014&lng=pt&nrm=iso&tlng=pt Abstract The following paper was part of the research work of the GEOM Seed Plant, which develops medium and low power wind generators. The aim was to develop proposals of prototypes that contribute with innovation and research to the development of non-conventional renewable energies. We studied the behavior of an electric induction generator in order to implement it in a low and medium wind-power generator, the study was characterized by using two points of view: theoretical machine analysis and virtual implementation with software-level technological tools such as Simulink. The resulting model meets the climatological conditions of the city of Bogotá, where there are ideal conditions for the exploitation of wind energy, taking the concept of total available power as reference for the analysis of the generator. The electrical and application advantages and disadvantages were analyzed. Finally, it was determined, based on the analysis processes, that the use of an induction machine is more convenient compared to a synchronous one, in order to perform future implementations that are optimal and efficient and support the study and development process of non-conventional renewable energies, particularly wind energy.<hr/>Resumen El artículo que se presenta a continuación es resultado del trabajo de investigación del semillero GEOM para el desarrollo de generadores eólicos de media y baja potencia. Se planteó la necesidad de generar y desarrollar propuestas de prototipos que contribuyeran desde la innovación y la investigación al desarrollo de las energías renovables no convencionales. Se estudió el comportamiento de un generador eléctrico de inducción con el objetivo de utilizarlo en el diseño e implementación de un generador de energía eólica o aerogenerador de baja y media potencia. El estudio se caracterizó por plantear dos puntos de vista: mediante el uso del análisis teórico de la máquina y, en segundo lugar, mediante la implementación virtual con herramientas tecnológicas, para lo que se empleó el software Simulink. El modelo que resultó se ajusta a las condiciones climatológicas de la ciudad de Bogotá, donde se presentan fenómenos óptimos para el aprovechamiento de la energía del viento, tomando el concepto de potencia total disponible como referencia para el análisis del generador. Se analizaron las ventajas y desventajas tanto eléctricas como de aplicación. Finalmente, se determinó, con base en los procesos de análisis, que es más conveniente el uso de una máquina de inducción en comparación con una síncrona, para efectos de realizar futuras implementaciones que sean óptimas y eficientes, que apoyen al proceso de estudio y desarrollo de las energías renovables no convencionales y, muy particularmente, al desarrollo de la energía eólica.<hr/>Resumo O artigo que se apresenta a continuação é resultado do trabalho de pesquisa do grupo GEOM para o desenvolvimento de geradores eólicos de média e baixa potência. Planteou-se a necessidade de gerar e desenvolver propostas de protótipos que contribuíssem desde a inovação e a pesquisa ao desenvolvimento das energias renováveis não convencionais. Estudou-se o comportamento de um gerador elétrico de indução com o objetivo de utilizá-lo no desenho e implementação de um gerador de energia eólica ou aerogerador de baixa e média potência. O estudo caracterizou-se por plantear dois pontos de vista: mediante o uso da análise teórica da máquina e, em segundo lugar, mediante a implementação virtual com ferramentas tecnológicas, para o qual utilizou-se o software Simulink. O modelo que resultou ajusta-se às condições climatológicas da cidade de Bogotá, onde ocorrem ótimos fenômenos para o aproveitamento da energia do vento, tomando o conceito de potência total disponível como referência para a análise do gerador. Analisaram-se as vantagens e desvantagens tanto elétricas como de aplicação. Finalmente, determinou-se, com base nos processos de análise, que é mais conveniente o uso de uma máquina de indução em comparação com uma síncrona, para efeitos de realizar futuras implementações que sejam ótimas e eficientes, que apoiem o processo de estudo e desenvolvimento das energias renováveis não convencionais e, muito particularmente, o desenvolvimento da energia eólica. <![CDATA[Avaliação de eletrodos de carvão ativado como ânodos de uma célula de combustível microbiana usando Shewanella Putrefaciens]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100015&lng=pt&nrm=iso&tlng=pt Abstract In this work, three types of activated carbons were evaluated as electrodes in the anode chamber of a two-chamber microbial fuel cell (MFC). The evaluation was applied using a pure Shewanella Putrefaciens culture due to its gram-negative characteristics. In the cathode chamber, a platinum electrode was used, and a Nafion® 117 proton exchange membrane was selected as a separator of both chambers. The activated carbons were obtained from different precursors (coffee husk, commercial coal, and mineral coal), with different microporous and surface properties. From the voltage and current measurements, it was found that the cell power values varied between 0.008 mW and 0.045 mW. The electrode obtained from chemical activation of coffee husk with H3PO4 at 450 °C (Q) showed the best electrochemical behaviour and highest power values. This result may be mainly related to the macroscopic morphology and mesopores that improve the wettability of the surface by the medium thought carbonaceous material. SEM images showed a better biofilm formation, larger filaments of the bacteria, and micro-beds formation over the surface of bio-anode Q, which improved the interaction with the microorganism, its metabolism, and electrons extracellular transfer. Therefore, activated carbon from coffee husk could be considered as a promising material for electrodes of microbial fuel cells.<hr/>Resumen En este trabajo se evaluaron tres tipos de carbones activados como electrodos en la cámara anódica de una celda de combustible microbiana (MFC) de dos cámaras. Se utilizó un cultivo de Shewanella putrefaciens puro debido a sus características gran-negativa. En la cámara catódica se utilizó un electrodo de platino y Nafion® 117 como membrana de intercambio de protones para separar las dos cámaras. Los carbones activados seleccionados presentaron diferentes precursores (cisco de café, carbón comercial, y carbón mineral), con diferentes morfologías y propiedades porosas y superficiales. A partir de las mediciones de voltaje y corriente se encontró que los valores de potencia de la celda variaron entre 0.008 mW y 0.045 mW. El electrodo preparado utilizando carbón activado a partir de cisco de café (Q) presentó el mejor comportamiento electroquímico y valores de potencia más altos; este carbón se obtuvo a partir de la activación de cisco de café con H3PO4 a 450 °C. La morfología macroscópica de este carbón activado permitió una mejor migración del medio de cultivo acuoso hacia los macroporos y posteriormente mesoporos que mejoran la mojabilidad de la superficie. Las microfotografías SEM mostraron una mejor formación de la biopelícula, filamentos más largos de la bacteria y la formación de microlechos en el bio-ánodo Q, que favoreció la interacción con el microorganismo, facilitando su metabolismo y la transferencia extracelular de electrones. Por tal motivo, el carbón activado a partir de cisco de café podría ser considerado como un material prometedor para su implementación como electrodos en celdas de combustible microbiana.<hr/>Resumo Neste trabalho avaliaram-se três tipos de carvões ativados como eletrodos na câmara anódica de uma célula de combustível microbiana (MFC) de duas câmaras. Utilizou-se um cultivo de Shewanella putrefaciens puro devido a suas características gram-negativa. Na câmara catódica utilizou-se um eletrodo de platino e Nafion® 117 como membrana de intercâmbio de prótons para separar as duas câmaras. Os carvões ativados selecionados apresentaram diferentes precursores (cisco de café, carvão comercial, e carvão mineral), com diferentes morfologias e propriedades porosas e superficiais. A partir das medições de voltagem e corrente encontrou-se que os valores de potência da célula variaram entre 0.008 mW e 0.045 mW. O eletrodo preparado utilizando carvão ativado a partir de cisco de café (Q) apresentou o melhor comportamento eletroquímico e valores de potência mais altos; este carvão obteve-se a partir da ativação de cisco de café com H3PO4 a 450 °C. A morfologia macroscópica deste carvão ativado permitiu uma melhor migração do meio de cultivo aquoso em direção aos macroporos e posteriormente mesoporos que melhoram a molhabilidade da superfície. As microfotografias SEM mostraram uma melhor formação da biopelícula, filamentos mais longos da bactéria e a formação de microleitos no bio-ânodo Q, que favoreceu a interação com o micro-organismo, facilitando seu metabolismo e a transferência extracelular de elétrons. Por tal motivo, o carvão ativado a partir de cisco de café poderia ser considerado como um material prometedor para sua implementação como eletrodos em células de combustível microbiana. <![CDATA[Valoração da durabilidade do concreto pré-fabricado utilizado no sistema grande painel soviético]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100016&lng=pt&nrm=iso&tlng=pt Abstract The durability of the concrete of the precast Great Soviet Panel system is valued through the resistance to compression, ultrasonic pulse velocity, surface methods, humidity and potential of corrosion. The evaluation is approached, essentially, through experimental and statistical methods, nevertheless, historical-logical and technical methods, such as surveys and interviews, are used in order to gather a bigger amount of information on the resistance to compression of the elements in the original project. While analyzing the results, we can conclude that, in elements in a good technical-constructive state that conform the constructions in exploitation, concrete has an average resistance. However, in elements with the presence of pathological damages, the resistance is low due to the fact that elements show chemical deterioration processes caused by water exposure, which generates the formation of soluble paste compounds, loss of mass, and decrease in mechanical resistance, among other alterations. At the same time, carbonation of concrete is triggered, which, in turn, causes the corrosion of the reinforcing steel. This corrosion leads to the cracking of concrete, delamination of steel, decrease of the concrete-steel adhesion, and other manifestations that affect the durability of concrete. Therefore, the incidence of the durability of concrete should be valued in the structural seismic behavior of constructions.<hr/>Resumen Se valora la durabilidad del hormigón del sistema prefabricado Gran Panel Soviético, a través de la precisión de la resistencia a compresión, la velocidad del pulso ultrasónico y el índice esclerométrico. Igualmente, se determinan otros parámetros como la humedad y el potencial de corrosión, que también inciden en la durabilidad del hormigón. Se recurre esencialmente a métodos experimentales y estadísticos, no obstante, se emplean métodos como el histórico-lógico y técnicas como las encuestas y entrevistas, para recopilar mayor cantidad de información sobre la resistencia a compresión de los elementos prefabricados en el proyecto original. Al analizar los resultados se concluye que, en los elementos en buen estado técnico-constructivo, que conforman las edificaciones en explotación, el hormigón es de resistencia media al igual que lo prescribe el proyecto original de este sistema prefabricado. Sin embargo, en los elementos con presencia de daños patológicos la resistencia es baja. Debido a que en estos elementos se evidencian procesos de deterioro químico, causado por el ataque del agua, que generan formación de compuestos solubles de la pasta, la pérdida de masa y la disminución de resistencia mecánica entre otras alteraciones. A la par se desencadena la carbonatación del hormigón, que provoca a su vez la corrosión del acero de refuerzo. Esta corrosión conduce al agrietamiento del hormigón, delaminación del acero, disminución de la adherencia hormigón-acero y demás manifestaciones, que afectan la durabilidad del hormigón. Por lo tanto, se debe valorar la incidencia de la durabilidad del hormigón, en el comportamiento sismorresistente de estas edificaciones.<hr/>Resumo Valora-se a durabilidade do concreto do sistema pré-fabricado Grande Painel Soviético, através da precisão da resistência à compressão, à velocidade do pulso ultrassônico e ao índice esclerométrico. Igualmente, determinam-se outros parâmetros como a humidade e o potencial de corrosão, que também incidem na durabilidade do concreto. Recorre-se essencialmente a métodos experimentais e estatísticos, mesmo assim, empregam-se métodos como o histórico-lógico e técnicas como as enquetes e entrevistas, para recopilar maior quantidade de informação sobre a resistência à compressão dos elementos pré-fabricados no projeto original. Ao analisar os resultados conclui-se que, nos elementos em bom estado técnico-construtivo, que conformam as edificações em exploração, o concreto é de resistência média ao igual que o prescreve o projeto original deste sistema pré-fabricado. Porém, nos elementos com presença de danos patológicos, a resistência é baixa. Devido a que nestes elementos evidenciam-se processos de deterioro químico, causado pelo ataque de água, que geram formação de compostos solúveis da pasta, a perda de massa e a diminuição de resistência mecânica, entre outras alterações. Juntamente, desencadeia-se a carbonatação do concreto, que provoca por sua vez, a corrosão do aço de reforço. Esta corrosão conduz à fissuração do concreto, delaminação do aço, diminuição da aderência concreto-aço e demais manifestações, que afetam a durabilidade do concreto. Portanto, deve-se valorar a incidência da durabilidade do concreto, no comportamento sismorresistente destas edificações. <![CDATA[Otimização do efeito da temperatura e da altura do leito na bioadsorção de Cr (VI) em um sistema contínuo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100017&lng=pt&nrm=iso&tlng=pt Abstract In the present paper, the residues of the plantain starch extraction process are proposed as an adsorbent to remove Cr (VI) in a continuous fixed bed-system, varying the temperature in 33, 40, 55, 70 y 76 °C and bed height in the range of 15.5, 30, 65, 100, 114.5 mm. The adsorbent material was characterized by Fourier Transform Infrared Spectroscopy (FTIR), Scanning Electron Microscopy (SEM) and X-ray Diffraction Analysis (XRD). The Cr (VI) solution at 100 ppm had contact with the column by gravity, with a flow rate of 0.75 mL/s at the different working conditions. At the end of the process, the residual concentration of the metal was measured by UV-Vis spectroscopy using the standard method for the determination of Cr (VI) in water ASTM D1687-17. From the results, it was established that the bioadsorbent has the presence of hydroxyl, carboxyl and methyl functional groups and that the adsorption process is controlled by electrostatic interactions; the variables evaluated had a significant influence on the process because applying the RSM methodology it was observed that the optimal operating conditions are 81.49 mm of bed height and temperature of 68 ºC. Based on the behavior of the rupture curve, it was found that the bio-material has the potential to be used as a filler in an adsorption column with the purpose of remove Cr (VI).<hr/>Resumen En el presente artículo se propone como adsorbentes residuos del proceso de extracción de almidón de plátano para remover Cr (VI) en un sistema continuo de lecho fijo, variando la temperatura 33, 40, 55, 70 y 76 °C y altura de lecho en el rango de 15.5, 30, 65, 100, 114.5 mm. El material adsorbente fue caracterizado mediante espectroscopia infrarroja por transformada de Fourier (FTIR), Microscopia Electrónica de Barrido (SEM) y análisis por difracción de rayos X (DRX). La solución de Cr (VI) a 100 ppm tuvo contacto con la columna por gravedad, con un caudal de 0.75 mL/s a las diferentes condiciones trabajadas. Al final del proceso la concentración residual del metal fue medida mediante espectroscopia UV-Vis usando el método estándar para la determinación de Cr (VI) en agua ASTM D1687-17. De los resultados, se estableció que el bioadsorbente cuenta con la presencia de grupos funcionales hidroxilo, carboxilo y metilo, y que el proceso de adsorción está controlado por interacciones electrostáticas; las variables evaluadas incidieron de forma significativa en el proceso, estableciendo al aplicar la metodología RSM que las condiciones óptimas de operación son 81.49 mm de altura de lecho y temperatura de 68 ºC. Del comportamiento de la curva de ruptura se encontró que el bio-material tiene potencial para ser usado como relleno en una columna de adsorción con el fin de remover Cr (VI).<hr/>Resumo Este artigo propõe como resíduos adsorventes do processo de extração de amido de banana a remoção de Cr (VI) em um sistema contínuo de leito fixo, variando a temperatura 33, 40, 55, 70 e 76 ° C e a altura do leito em a faixa de 15,5, 30, 65, 100, 114,5 mm. O material adsorvente foi caracterizado por espectroscopia no infravermelho por transformada de Fourier (FTIR), microscopia eletrônica de varredura (MEV) e análise de difração de raios X (DRX). A solução de Cr (VI) a 100 ppm teve contato com a coluna por gravidade, com vazão de 0,75 mL / s nas diferentes condições trabalhadas. No final do processo, a concentração residual de metal foi medida por espectroscopia UV-Vis usando o método padrão para a determinação de Cr (VI) em água ASTM D1687-17. A partir dos resultados, foi estabelecido que o bioadsorvente tem a presença de grupos funcionais hidroxil, carboxil e metil, e que o processo de adsorção é controlado por interações eletrostáticas; as variáveis avaliadas tiveram impacto significativo no processo, estabelecendo, aplicando a metodologia RSM, que as condições operacionais ideais são 81,49 mm de altura do leito e temperatura de 68 ºC. A partir do comportamento da curva de ruptura, verificou-se que o biomaterial tem potencial para ser utilizado como carga em uma coluna de adsorção, a fim de remover o Cr (VI). <![CDATA[Comparação de modelos de aprendizado de máquina para a previsão de produção agrícola em cacau em Santander, Colômbia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100018&lng=pt&nrm=iso&tlng=pt Abstract The identification of influencing factors in crop yield (kg·ha-1) provides essential information for decision-making processes related to the prediction and improvement of productivity, which gives farmers the opportunity to increase their income. The current study investigates the application of multiple machine learning algorithms for cocoa yield prediction and influencing factors identification. The Support Vector Machines (SVM) and Ensemble Learning Models (Random Forests, Gradient Boosting) are compared with Least Absolute Shrinkage and Selection Operator (LASSO) regression models. The considered predictors were climate conditions, cocoa variety, fertilization level and sun exposition in an experimental crop located in Rionegro, Santander. Results showed that Gradient Boosting is the best prediction alternative with Coefficient of determination (R2) = 68%, Mean Absolute Error (MAE) = 13.32, and Root Mean Square Error (RMSE) = 20.41. The crop yield variability is explained mainly by the radiation one month before harvest, the accumulated rainfall on the harvest month, and the temperature one month before harvest. Likewise, the crop yields are evaluated based on the kind of sun exposure, and it was found that radiation one month before harvest is the most influential factor in shade-grown plants. On the other hand, rainfall and soil moisture are determining variables in sun-grown plants, which is associated with the water requirements. These results suggest a differentiated management for crops depending on the kind of sun exposure to avoid compromising productivity, since there is no significant difference in the yield of both agricultural managements.<hr/>Resumen La identificación de los factores que influyen en el rendimiento (kg·ha-1) de un cultivo provee información esencial para la toma de decisiones orientadas al mejoramiento y predicción de la productividad, proporcionando posibilidades a los agricultores para mejorar sus ingresos económicos. En este estudio, se presenta la aplicación y comparación de diversos algoritmos de aprendizaje automático para la predicción del rendimiento agrícola en cultivos de cacao y la identificación de los factores que influyen sobre éste. Se comparan los algoritmos de máquinas de soporte vectorial (SVM), modelos ensamblados (Random Forest, Gradient Boosting) y el modelo de regresión Least Absolute Shrinkage and Selection Operator (LASSO). Los predictores considerados fueron: condiciones climáticas de la región, variedad de cacao, nivel de fertilización y exposición al sol para un cultivo experimental ubicado en Rionegro, Santander. Los resultados identifican a Gradient Boosting como la mejor alternativa de pronóstico con un coeficiente de determinación (R2) = 68 %, Error Absoluto Medio (MAE) = 13.32 y Raíz Cuadrada del Error Medio (RMSE) = 20.41. La variabilidad del rendimiento del cultivo es explicada principalmente por la radiación y la temperatura un mes previo a la cosecha, además de las lluvias acumuladas el mes de la cosecha. De igual manera, los rendimientos de los cultivos son evaluados con base en el tipo de exposición al sol, encontrando que la radiación un mes previo a la cosecha es el factor más influyente para los cultivos bajo sombra. Por otro lado, la lluvia y la humedad son las variables determinantes en las plantas con exposición plena a sol, lo que está asociado a los requerimientos hídricos. Estos resultados sugieren un manejo diferenciado de los cultivos dependiendo del tipo de exposición, sin tener que comprometer la productividad, dado que no se evidencia diferencia significativa en los rendimientos de ambos manejos agrícolas.<hr/>Resumo A identificação de fatores que influenciam o rendimento (kg·ha-1) de uma safra fornece informações essenciais para a tomada de decisões com o objetivo de melhorar e prever a produtividade, oferecendo possibilidades aos agricultores de melhorar sua renda econômica. Neste estudo, são apresentadas a aplicação e comparação de vários algoritmos de aprendizado de máquina para a previsão do desempenho agrícola em cultivos de cacau e a identificação dos fatores que o influenciam. Os algoritmos de máquinas de suporte de vetores (SVM), modelos montados (floresta aleatória, reforço de gradiente) e o modelo de regressão Operador de seleção e contração mínimos absolutos (LASSO) são comparados. Os preditores considerados foram: condições climáticas da região, variedade de cacau, nível de fertilização e exposição ao sol para uma cultura experimental localizada em Rionegro, Santander. Os resultados identificam o Gradient Boosting como a melhor alternativa de prognóstico com um coeficiente de determinação (R2) = 68%, Erro Absoluto Médio (MAE) = 13.32 e Erro Médio de Raiz Quadrada (RMSE) = 20.41. A variabilidade do rendimento das culturas é explicada principalmente pela radiação e temperatura um mês antes da colheita, além das chuvas acumuladas no mês da colheita. Da mesma forma, os rendimentos das culturas são avaliados com base no tipo de exposição ao sol, constatando que a radiação um mês antes da colheita é o fator mais influente para as culturas sombreadas. Por outro lado, chuva e umidade são as variáveis determinantes em plantas com exposição solar total, as quais estão associadas às necessidades de água. Esses resultados sugerem um manejo diferenciado das culturas, dependendo do tipo de exposição, sem comprometer a produtividade, uma vez que não há diferença significativa nos rendimentos de ambos os manejos agrícolas. <![CDATA[Estudo exploratório sobre a diminuição da área de pantanais em Bogotá devido à atividade de construção: 1950-2016]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100019&lng=pt&nrm=iso&tlng=pt Abstract The aim of the study was to quantify in an explorative way the damage of the wetland area because of drying and construction activities, from 1950 to 2016 in Bogota city. To such end, an estimate of the wetland area of Bogotá was made for the years 1950, 1989, and 2016 by reviewing the geographic information of the Agustín Codazzi Geographical Institute (IGAC) and the Aqueduct and Sewer Bogota Company (EAAB). The information was processed using AutoCAD software in order to perform the analysis of the area variation for each water body. The data shows that the city's water mirror area has decreased by an average of 84.52% between the years of 1950, 1989, and 2016, except for El Tunjo wetland (which grew 79.45%). This situation shows that the protection that has been implemented happened too late, since a considerable portion of these ecosystems rich in fauna and flora is lost. This has generated phenomena such as: flooding of settlements in these areas, disappearance or displacement of endemic species of flora and fauna, and displacement of wetlands.<hr/>Resumen El objetivo de este estudio es cuantificar de manera exploratoria el daño en el área de humedales por desecamiento y construcción de 1950 a 2016 en la ciudad de Bogotá. Para dicho fin se realizó una estimación de dicho ecosistema de 1950, 1989 y 2016, a partir de la revisión de la información geográfica del Instituto Geográfico Agustín Codazzi (IGAC) y de la Empresa de Acueducto y Alcantarillado de Bogotá (EAAB). Se digitó la información utilizando el software AutoCAD, para luego realizar el análisis de la variación de área para cada uno de estos cuerpos de agua. Los datos obtenidos muestran que el área del espejo de agua de los humedales de la ciudad se ha reducido en un 84.52%, en promedio, entre 1950, 1989 y 2016, con excepción del humedal “El Tunjo”, el cual creció 79.45%. Esta situación evidencia que la protección que se ha implementado fue tardía, ya que se ha perdido una porción considerable de estos ecosistemas ricos en fauna y flora, lo cual ha generado fenómenos como inundaciones de los asentamientos en estas áreas, desaparición o desplazamiento de especies endémicas de flora y fauna y desplazamiento de las zonas húmedas.<hr/>Resumo O objetivo deste estudo é quantificar de maneira exploratória o dano na área de pantanais por dessecamento e construção de 1950 a 2016 na cidade de Bogotá. Para tal fim realizou-se uma estimação de dito ecossistema de 1950, 1989 e 2016, a partir da revisão da informação geográfica do Instituto Geográfico Agustín Codazzi (IGAC) e da Empresa de Aqueduto e Esgoto de Bogotá (EAAB). Realizou-se a análise da variação de área para cada um dos corpos de água; os dados obtidos mostram que a área do espelho de água dos pantanais da cidade tem sido reduzida em um 84.52%, em média, entre 1950, 1989 e 2016, com exceção do pantanal “El Tunjo”, que cresceu 79.45%. Esta situação evidencia que a proteção que tem sido implementada foi tardia, já que tem sido perdida uma porção considerável destes ecossistemas ricos em fauna e flora, o que tem gerado fenômenos como inundações dos assentamentos nestas áreas, desaparição ou deslocamento de espécies endêmicas de flora e fauna e deslocamento das zonas húmidas. <![CDATA[Materiais compostos ablativos de matriz polimérica e sua aplicação na fabricação de componentes de propulsão aeroespacial]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100020&lng=pt&nrm=iso&tlng=pt Resumen El desarrollo de sistemas de protección térmica y materiales compuestos de alta temperatura para la fabricación de componentes de propulsión de bajo peso representa un reto importante para la industria aeroespacial, especialmente en el campo de la cohetería. La cámara de combustión del cohete, propulsores y boquillas deben diseñarse para soportar temperaturas de trabajo superiores a los 1600-2000 °C en un ambiente ablativo severo. Esta investigación se enfoca en la obtención y caracterización de materiales compuestos ablativos basados en una matriz de resina poliéster (30%) reforzada con materiales particulados (fillers) (67%) y fibras cortas de vidrio (3%); destacando que los fillers corresponden a residuos o subproductos industriales tipo escoria siderúrgica, escoria de aluminio, escoria de fundición y residuo cerámico. Los compuestos fueron caracterizados físico-mecánicamente y sometidos a un ensayo ablativo de llama directa (~1600-2000 °C, 120 segundos), reportando niveles de aislamiento térmico de entre 72.6-92.9%, con temperaturas máximas en la cara opuesta a la llama de entre 141.6-548.8 °C, y pérdidas de peso posteriores al ensayo ablativo de entre 8.5-13.2%. Con base en los resultados obtenidos, se eligieron los compuestos óptimos y su aplicación fue validada en la fabricación de componentes de propulsión tipo toberas de motor-cohete, las cuales fueron sometidas a una prueba estática de combustión real utilizando un propelente sólido tipo Candy KNSu (65%KNO3-35%Sucrosa). Los resultados obtenidos demostraron la posibilidad de producir compuestos ablativos y sistemas de protección térmica a partir de materiales de fácil adquisición y altos contenidos de subproductos industriales; aplicaciones que se consideran de suma importancia para desarrollar el campo aeroespacial colombiano en la construcción de cohetes de sondeo con fines científicos, tecnológicos y militares.<hr/>Abstract The development of thermal protection systems and high-temperature composite materials for the manufacture of low-weight propulsion components represents a major challenge for the aerospace industry, especially in the field of rocketry. The rocket combustion chamber and nozzles must be designed to withstand operating temperatures above 1600-2000 ° C in a severe ablative environment. This research focuses on obtaining a characterization of ablative composite materials based on a polyester resin matrix (30%) reinforced with particulate materials (fillers) (67%) and short glass fibers (3%), highlighting that the fillers correspond to industrial waste or by-products such as steel slag, aluminum slag, foundry slag and ceramic waste. The composites were physically and mechanically characterized and subjected to an ablative direct flame test (~1600-2000 °C, 120 seconds), reporting thermal insulation levels between 72.6-92.9%, with maximum temperatures on the opposite side of the flame between 141.6-548.8 ° C, and post-ablative weight losses of between 8.5-13.2%. Based on the obtained results, the optimal composites were selected and their application was validated in the manufacture of rocket-type nozzle propulsion components, which were subjected to a real static combustion test, using a solid propellant Candy KNSu type (65 % KNO3-35% Sucrose). The results proved the possibility of obtaining ablative composites and thermal protection systems from available materials and high contents of industrial by-products. These applications are considered important to develop the Colombian aerospace field in the construction of sounding rockets for scientific, technological, and military purposes.<hr/>Resumo O desenvolvimento de sistemas de proteção térmica e materiais compostos de alta temperatura para a fabricação de componentes de propulsão de baixo peso representa um desafio importante para a indústria aeroespacial, especialmente no campo da ciência dos foguetes. A câmara de combustão do foguete, propulsores e boquilhas devem desenhar-se para suportar temperaturas de trabalho superiores aos 1600-2000 °C em um ambiente ablativo severo. Esta pesquisa enfoca-se na obtenção e caracterização de materiais compostos ablativos baseados em uma matriz de resina poliéster (30%) reforçada com materiais particulados (fillers) (67%) e fibras curtas de vidro (3%); destacando que os fillers correspondem a resíduos ou subprodutos industriais tipo escória siderúrgica, escória de alumínio, escória de fundição e resíduo cerâmico. Os compostos foram caracterizados físico-mecanicamente e submetidos a um ensaio ablativo de chama direta (~1600-2000 °C, 120 segundos), reportando níveis de isolamento térmico de entre 72.6-92.9%, com temperaturas máximas na cara oposta à chama de entre 141.6-548.8 °C, e perdas de peso posteriores ao ensaio ablativo de entre 8.5-13.2%. Com base nos resultados obtidos, foram escolhidos os compostos ótimos e sua aplicação foi validada na fabricação de componentes de propulsão tipo bocais de motor-foguete, as quais foram submetidas a uma prova estática de combustão real utilizando um propelente sólido tipo Candy KNSu (65%KNO3-35%Sucrosa). Os resultados obtidos demonstraram a possibilidade de produzir compostos ablativos e sistemas de proteção térmica a partir de materiais de fácil aquisição e altos conteúdos de subprodutos industriais; aplicações que se consideram de muita importância para desenvolver o campo aeroespacial colombiano na construção de foguetes de sondagem com fins científicos, tecnológicos e militares. <![CDATA[Aplicação de compactação dinâmica para estruturas de grande impacto em Córdoba, Argentina]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100021&lng=pt&nrm=iso&tlng=pt Resumen El método de compactación dinámica, muy poco difundido en Argentina, no ha sido utilizado en la ciudad de Córdoba hasta esta ocasión. Su aplicación en la “Planta de Tratamiento de Líquidos Cloacales Bajo Grande” ha constituido un gran logro técnico y ecónomico. Este artículo sintetiza estudios geotécnicos previos al mejoramiento, caracteriza la compactación dinámica a partir del perfil de suelos existente y requisitos de obras de gran impronta como sedimentadores y tanques de aireación. Se mencionan aspectos de control de obra durante su ejecución, datos de estudios de suelos posteriores al mejoramiento, parámetros del modelo matemático empleado para efectuar la prognosis de asientos de acuerdo al perfil de suelos evaluado y mediciones de validación de asientos con los sedimentadores en funcionamiento. La compactación se llevó a cabo dejando caer una masa de 10000 kg en caída libre a 15 m de altura desde una grúa, sobre puntos distanciados aproximadamente a 2.8 m entre sí. Se ejecutaron dos fases de varias caídas permitiendo un aumento de la densidad relativa del suelo original hasta un máximo de 70%, reduciendo los asentamientos verticales 10%, disminuyendo la distorsión angular a la mitad, duplicando la capacidad portante y alcanzando una profundidad máxima de mejoramiento próxima a 6 m. Luego se realizó por requisito de proyecto una fase de nivelación de terreno con compactación mecánica. Pudo concluirse que la fundación de la obra con plateas de hormigón armado sobre el suelo mejorado, presentó una factibilidad técnica-económica muy superior respecto a la alternativa de una fundación profunda con pilotes, lo que justificó la ejecución de la compactación dinámica en esta obra.<hr/>Abstract The dynamic compaction method, very little spread in Argentina, has not been used in the city of Córdoba until this occasion. Its application in the “Bajo Grande Sewage Liquid Treatment Plant” has been a great technical and economic achievement. This article synthesizes geotechnical studies before the improvement, characterizes the dynamic compaction from the existing soil profile, and requirements of major works such as settlers and aeration tanks. Aspects of work control during its execution, data from soil studies after improvement, parameters of the mathematical model used to carry out the prognosis of seats according to the evaluated soil profile and measurements of validation of seats with the sedimentation tanks in operation are mentioned. Compaction was carried out by dropping a 10000 kg mass in free fall at a height of 15m from a crane, on points approximately 2.8 m apart. Two phases of several falls were executed allowing an increase in the relative density of the original soil to a maximum of 70%, reducing vertical settlements by 10%, decreasing angular distortion in half, doubling the bearing capacity, and reaching a maximum depth improvement near 6m. Then a ground leveling phase with mechanical compaction was carried out by project requirement. It could be concluded that the foundation of the construction with reinforced concrete stalls on the improved soil, presented a very superior technical-economic feasibility with respect to the alternative of a deep foundation with piles, which justified the execution of dynamic compaction in this work.<hr/>Resumo O método de compactação dinâmica, muito pouco difundido na Argentina, não tem sido utilizado na cidade de Córdoba até esta ocasião. Sua aplicação na “Usina de Tratamento de Líquidos Cloacais Bajo Grande” tem constituído um grande sucesso técnico e econômico. Este artigo sintetiza estudos geotécnicos prévios ao melhoramento, caracteriza a compactação dinâmica a partir do perfil de solos existente e requisitos de obras de grande impronta como separadores e tanques de arejamento. Mencionam-se aspectos de controle de obra durante sua execução, dados de estudos de solos posteriores ao melhoramento, parâmetros do modelo matemático empregado para efetuar a prognose de assentos de acordo com o perfil de solos avaliado e medições de validação de assentos com os separadores em funcionamento. A compactação levou-se a cabo deixando cair uma massa de 10000 kg em queda livre a 15 m de altura desde um guindaste, sobre pontos distanciados aproximadamente a 2.8 m entre si. Executaram-se duas fases de várias quedas permitindo um aumento da densidade relativa do solo original até um máximo de 70%, reduzindo os assentamentos verticais 10%, diminuendo a distorção angular à metade, duplicando a capacidade de suporte e alcançando uma profundidade máxima de melhoramento próxima a 6 m. Depois realizou-se por requisito de projeto uma fase de nivelação de terreno com compactação mecânica. Pôde concluir-se que a fundação da obra com plateias de concreto armado sobre o solo melhorado, apresentou uma factibilidade técnica-econômica muito superior com respeito à alternativa de uma fundação profunda com pilares, o que justificou a execução da compactação dinâmica nesta obra. <![CDATA[Smart Lumini: Sistema de luminosidade inteligente baseado em IoT para ambientes acadêmicos usando hardware livre]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100022&lng=pt&nrm=iso&tlng=pt Abstract Rational energy consumption in large buildings depends on both the users' consumption culture and the management systems implemented. In Colombia, few buildings have an energy management system characterized by its adaptability to the user and with a certain degree of intelligence. Thus, this document describes the summarized research process for the development of an Internet of Things (IoT) system, which has been designed to promote an intelligent lighting service in an academic environment. The IoT system orchestrates a series of sensors, monitoring systems and controlled actions, all based on the principle of making the system functions and consumption records available in real-time, via web services. The devices used are "Things" with improved functionality, becoming "Smart Things" within the IoT paradigm. Methodologically, an experimental process was followed, linking the development of electronic tools, the construction of services, and the development of interfaces for a pleasant user experience. Research contributes to two essential areas: intelligent buildings, through the intelligent adaptation of an environment; and sustainability and eco-innovation, since the system provides appropriate information for environmental education, in terms of real-time energy consumption, that impacts directly on the fair-use culture of a service expensive for the environment.<hr/>Resumen El consumo racional de energía eléctrica en grandes construcciones depende tanto de la cultura de consumo de los usuarios como de los sistemas de gestión implementados. En Colombia, pocas edificaciones cuentan con sistemas de gestión energética que se caractericen por adaptarse al usuario y que cuenten con un grado de inteligencia. Por ello, este documento describe el proceso de investigación para el desarrollo de un sistema de Internet de las Cosas (IoT), que ha sido diseñado para promover un servicio de iluminación inteligente en un ambiente académico. El sistema IoT orquesta una serie de sensores, sistemas de monitoreo y acciones controladas, basadas en el principio de hacer disponibles las funciones del sistema y el registro de consumo en tiempo real por medio de servicios web. Los dispositivos utilizados son "Cosas" con funcionalidad mejorada, convirtiéndose en "Cosas Inteligentes" dentro del paradigma de IoT. Metodológicamente, se siguió un proceso experimental, vinculando el desarrollo de instrumentos electrónicos, la construcción de servicios y el desarrollo de interfaces para una experiencia de usuario favorable. La investigación contribuye a dos áreas esenciales: los edificios inteligentes, mediante la adaptación inteligente de un entorno; y la sostenibilidad y la eco innovación, dado que el sistema proporciona información adecuada para la educación ambiental, en términos de consumo de energía en tiempo real, que repercute directamente en la cultura del uso justo de un servicio costoso para el medio ambiente.<hr/>Resumo O consumo racional de energia elétrica em grandes construções depende tanto da cultura de consumo dos usuários como dos sistemas de gestão implementados. Na Colômbia, poucas edificações contam com sistemas de gestão energética que se caracterizem por adaptar-se ao usuário e que contem com um grau de inteligência. Por isso, este documento descreve o processo de pesquisa para o desenvolvimento de um sistema de Internet das Coisas (IoT), que tem sido desenhado para promover um serviço de iluminação inteligente em um ambiente acadêmico. O sistema IoT orquestra uma série de sensores, sistemas de monitoramento e ações controladas, baseadas no princípio de fazer disponíveis as funções do sistema e o registro de consumo em tempo real por meio de serviços web. Os dispositivos utilizados são "Coisas" com funcionalidade melhorada, convertendo-se em "Coisas Inteligentes" dentro do paradigma de IoT. Metodologicamente, seguiu-se um processo experimental, vinculando o desenvolvimento de instrumentos eletrônicos, a construção de serviços e o desenvolvimento de interfaces para uma experiência de usuário favorável. A pesquisa contribui a duas áreas essenciais: os edifícios inteligentes, mediante a adaptação inteligente de um ambiente; e a sustentabilidade e a eco inovação, já que o sistema proporciona informação adequada para a educação ambiental, em termos de consumo de energia em tempo real, que repercute diretamente na cultura do uso justo de um serviço caro para o meio ambiente. <![CDATA[Comparação de processos aeróbios e anaeróbios em batch para a degradação da matéria orgânica em uma barragem tropical]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100023&lng=pt&nrm=iso&tlng=pt Abstract The decomposition of submerged organic matter after the flooding process of a reservoir and the organic matter transported by the tributaries that supply it, gives rise to the formation of greenhouse gases (GHG), such as CO. and CH., product of the aerobic and anaerobic biological processes that take place both on the surface and at the bottom of the reservoir. In this study, the dynamics of aerobic and anaerobic processes as well as the generation of greenhouse gases in the degradation of organic matter, present in a tropical reservoir, were compared. Batch reactors and plant material extracted from the protection strip were used. Likewise, the behavior of the variation of the COD, physicochemical parameters such as pH, dissolved oxygen, redox potential, and conductivity were evaluated, and the kinetic constants that represent the behavior of organic matter were defined. The results showed that the degradation of the organic material leads to the generation of GHG, however, when using water plus vegetal material, the GHG increased considerably after a time. This process is due to the fact that the plant material suffers the breakdown of its polymer chains and so it degrades more quickly, which increases the concentration of organic matter available to microorganisms. GHG values ​​were on average 10.290 g CO2eq/m..d with water only, and 24.536 g CO2eq/m..d with water and vegetal material for aerobic processes. In anaerobic processes, the values were on average 12.056 g CO2eq/m..d with water only, and 33.470 g CO2eq/m..d with water plus vegetal material. These laboratory scale results allow analyzing the behavior of the reservoir and the incidence of flooded plant material on GHGs.<hr/>Resumen La descomposición de la materia orgánica sumergida posterior al proceso de inundación de un embalse y la materia orgánica transportada por los tributarios que surten éste, da lugar a la formación de gases de efecto invernadero (GEI) como el CO. y CH., producto de los procesos biológicos aerobios y anaerobios que se llevan a cabo tanto en la superficie como en el fondo. En este estudio se comparó la dinámica de los procesos aerobios y anaerobios, y la generación de gases de efecto invernadero en la degradación de la materia orgánica presente en el agua de un embalse tropical, empleando reactores en batch y material vegetal extraído de la franja de protección de este. Asimismo, se evaluó el comportamiento de la variación de la DQO, parámetros fisicoquímicos como el pH, oxígeno disuelto, potencial redox y conductividad, y se definieron las constantes cinéticas que representan el comportamiento de la materia orgánica. Los resultados demostraron que la degradación del material orgánico da lugar a la generación de GEI, sin embargo, al emplear agua más material vegetal, los GEI aumentaron considerablemente después de un tiempo, proceso que se debe a que el material vegetal sufre el rompimiento de sus cadenas poliméricas y se puede degradar más rápidamente, lo que incrementa la concentración de materia orgánica disponible para los microrganismos. Los valores de GEI fueron en promedio de 10.290 g CO2eq/m..d solo con agua y 24.536 g CO2eq/m..d con agua y material vegetal para los procesos aerobios, mientras que en los procesos anaerobios fueron en promedio de 12.056 g CO2eq/m..d solo con agua y 33.470 g CO2eq/m..d con agua más material vegetal. Estos resultados a escala de laboratorio permiten analizar el comportamiento del embalse y la incidencia que tiene el material vegetal inundado sobre los GEI.<hr/>Resumo A decomposição da matéria orgânica submergida posterior ao processo de inundação de uma barragem e a matéria orgânica transportada pelos tributários que a surtem, dá lugar à formação de gases de efeito estufa (GEI) como o CO2 e CH4, produto dos processos biológicos aeróbios e anaeróbios que se levam a cabo tanto na superfície como no fundo. Neste estudo comparou-se a dinâmica dos processos aeróbios e anaeróbios, e a geração de gases de efeito estufa na degradação da matéria orgânica presente na água de uma barragem tropical, empregando reatores em batch e material vegetal extraído da faixa de proteção deste. Assim mesmo, avaliou-se o comportamento da variação da DQO, parâmetros físico-químicos como o pH, oxigênio dissolvido, potencial redox e condutividade, e definiram-se as constantes cinéticas que representam o comportamento da matéria orgânica. Os resultados demonstraram que a degradação do material orgânico dá lugar à geração de GEI, porém, ao empregar água mais material vegetal, os GEI aumentaram consideravelmente depois de um tempo, processo que se deve a que o material vegetal sofre o rompimento de suas cadeias poliméricas e pode-se degradar mais rapidamente, o que incrementa a concentração de matéria orgânica disponível para os microrganismos. Os valores de GEI foram em média de 10.290 g CO2eq/m2.d só com água e 24.536 g CO2eq/m2.d com água e material vegetal para os processos aeróbios, enquanto que nos processos anaeróbios foram em média de 12.056 g CO2eq/m2.d só com água e 33.470 g CO2eq/m2.d com água mais material vegetal. Estes resultados a escala de laboratório permitem analisar o comportamento da barragem e a incidência que tem o material vegetal inundado sobre os GEI. <![CDATA[Caracterização das perdas de propagação em um ambiente de laboratório de 3.7 GHz em condição de linha direta de visão]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100024&lng=pt&nrm=iso&tlng=pt Abstract The objective of this work is to propose experimental path loss propagation models for communication channels in indoor environments. In this sense, an experimental path loss characterization has been achieved, according to the measurements campaign carried out in a typical scenario of a university campus. These narrowband measurements were collected in the laboratory environment at 3.7 GHz in line-of-sight (LOS) condition. Also, these measurements were carried out at night to simulate stationary channel conditions. Thus, the results obtained show the values of the parameters of the close-in (CI) free space reference distance and floating-intercept (FI) path loss models, in terms of the transmitter and receiver separation distance. It should be noted that these values of the path loss models have been extracted applying linear regression techniques to the measured data. Also, these values agree with the path loss exponent values presented by other researchers in similar scenarios. The path loss behavior can be described with the implementation of these models. However, more measurement campaigns are needed to improve the understanding of propagation channel features, as well as to obtain better precision in the results obtained. This, in order to optimize the deployment and performance of next fifth-generation (5G) networks that combine indoor environments to offer their services and applications.<hr/>Resumen El objetivo de este trabajo es proponer modelos experimentales de las pérdidas de propagación para canales de comunicación en entornos indoor. Se ha efectuado una caracterización experimental de las pérdidas de propagación de acuerdo con la campaña de medidas llevada a cabo en un escenario típico de un campus universitario. Estas medidas fueron realizadas en un ambiente de laboratorio a 3.7 GHz en condiciones de línea de vista y con un enfoque de banda estrecha. Las mediciones se hicieron en la noche, simulando condiciones de estacionariedad del canal de comunicaciones. Los resultados obtenidos muestran los valores de los parámetros del modelo Close-In (CI) a una distancia de referencia en espacio libre, y del modelo Floating-Intercept (FI) en términos de la distancia de separación entre el transmisor y receptor. Se debe notar que dichos valores de los modelos de pérdidas de propagación se han extraído aplicando técnicas de regresión lineal a los datos medidos. Además, concuerdan con los valores del exponente de pérdidas de propagación presentados por otros investigadores en escenarios similares. Con la implementación de estos modelos se puede describir el comportamiento de las pérdidas de propagación en este tipo de entornos, sin embargo, es necesario hacer más campañas de medición para mejorar los conocimientos de las características del canal de propagación. También, para obtener una mejor precisión en los resultados obtenidos, con el fin de optimizar el despliegue y desempeño de las futuras redes de quinta generación (5G), que combinen los entornos indoor para la prestación de sus servicios y aplicaciones.<hr/>Resumo O objetivo deste trabalho é propor modelos experimentais de perdas de propagação para canais de comunicação em ambientes internos. Uma caracterização experimental das perdas de propagação foi realizada de acordo com a campanha de medição realizada em um cenário típico de um campus universitário. Essas medições foram realizadas em um ambiente de laboratório de 3,7 GHz sob condições de linha de visão e com um foco de banda estreita. As medições foram feitas à noite, simulando as condições de estacionariedade do canal de comunicação. Os resultados obtidos mostram os valores dos parâmetros do modelo Close-In (CI) a uma distância de referência no espaço livre, e do modelo Floating-Intercept (FI) em termos da distância de separação entre o transmissor e o receptor. Deve-se notar que esses valores dos modelos de perda de propagação foram extraídos pela aplicação de técnicas de regressão linear aos dados medidos. Além disso, concordam com os valores do expoente de perda de propagação apresentados por outros pesquisadores em cenários semelhantes. Com a implementação desses modelos, pode-se descrever o comportamento das perdas de propagação neste tipo de ambiente, porém, é necessário realizar mais campanhas de medição para melhorar o conhecimento das características do canal de propagação. Também, obter maior precisão nos resultados obtidos, de forma a otimizar a implantação e desempenho das futuras redes de quinta geração (5G), que combinam ambientes internos para a prestação de seus serviços e aplicações. <![CDATA[Aproximação à estimação da ameaça geotécnica originada por escavações profundas em argilas de Bogotá: Uma contribuição à sustentabilidade em entornos urbanos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100025&lng=pt&nrm=iso&tlng=pt Resumen El desarrollo de ciudades resilientes y sustentables considera la construcción de proyectos de infraestructura que involucran excavaciones profundas. Durante las excavaciones, frecuentemente, se producen desplazamientos en la superficie que pueden ser inadmisibles para los elementos previamente construidos del entorno urbano, amenazando la sustentabilidad de sectores ya consolidados. En este artículo, se presenta una aproximación a la estimación de la amenaza geotécnica originada por excavaciones profundas en suelos blandos lacustres de Bogotá, D.C., mediante simulaciones numéricas paramétricas que buscaron establecer la probabilidad de ocurrencia de falla de fondo y la estimación de desplazamientos en superficie para geometrías variables de la excavación. Se consolidó una base de datos a partir de 85 proyectos localizados en zonas geotécnicas que contienen suelos blandos en la ciudad. A partir de esta base, se determinaron valores estadísticamente representativos de las propiedades de resistencia y rigidez y se elaboró un perfil geotécnico de las arcillas lacustres para los análisis paramétricos. La estimación de la amenaza se desarrolló en tres fases: construcción del modelo geotécnico, planteamiento de los escenarios de amenaza y determinación del nivel de amenaza. Se tuvieron en cuenta los siguientes parámetros: geometría de la excavación (base y altura), factor de seguridad, probabilidad de falla y desplazamientos verticales en superficie (asentamientos). Finalmente, se presenta una matriz de aproximación para determinar las implicaciones y el nivel de amenaza que presentan las excavaciones en los suelos blandos de Bogotá, cuyos datos proporcionan una valoración previa en las etapas de factibilidad de un proyecto de excavación que contribuye a favorecer la resiliencia y sustentabilidad de las zonas ya desarrolladas.<hr/>Abstract The development of resilient and sustainable cities considers the construction of infrastructure projects that involve deep excavations. During excavations, surface displacements frequently occur that may be inadmissible for previously constructed elements of the urban environment, threatening the sustainability of already consolidated sectors. In this article, we present an approximation to the estimation of the geotechnical hazard by deep excavations in soft lacustrine soils of Bogotá, DC, using parametric numerical simulations that sought to establish the probability of occurrence of base bottom heave, and the estimation of surface displacements for variable excavation geometries. A database was consolidated from 85 projects found in geotechnical zones having soft soils in the city. From this base, statistically representative values of shear strength and stiffness were determined, and a statistically representative geotechnical profile of the lacustrine clays was prepared for parametric analyzes. The hazard estimation was developed in three stages: construction of the geotechnical model, approach of hazard scenarios and determination of the hazard level. The following parameters were considered: excavation geometry (base and height), safety factor, failure probability and vertical ground displacements (settlements). Finally, a matrix is ​​presented to determine the hazard level by excavations in the soft soils of Bogotá, whose data provide a prior assessment that contributes to promoting resilience and sustainability of already developed areas.<hr/>Resumo O desenvolvimento de cidades resilientes e sustentáveis considera a construção de projetos de infraestrutura que envolvem escavações profundas. Durante as escavações, frequentemente, produzem-se deslocamentos na superfície que podem ser inadmissíveis para os elementos previamente construídos do entorno urbano, ameaçando a sustentabilidade de setores já consolidados. Neste artigo, apresenta-se uma aproximação à estimação da ameaça geotécnica originada por escavações profundas em solos brandos lacustres de Bogotá, D.C., mediante simulações numéricas paramétricas que buscaram estabelecer a probabilidade de ocorrência de falha de fundo e a estimação de deslocamentos em superfície para geometrias variáveis da escavação. Consolidou-se uma base de dados a partir de 85 projetos localizados em zonas geotécnicas que contêm solos brandos na cidade. A partir desta base, determinaram-se valores estatisticamente representativos das propriedades de resistência e rigidez e elaborou-se um perfil geotécnico das argilas lacustres para as análises paramétricas. A estimação da ameaça desenvolveu-se em três fases: construção do modelo geotécnico, abordagem dos cenários de ameaça e determinação do nível de ameaça. Tiveram-se em conta os seguintes parâmetros: geometria da escavação (base e altura), fator de segurança, probabilidade de falha e deslocamentos verticais em superfície (assentamentos). Finalmente, apresenta-se uma matriz de aproximação para determinar as implicações e o nível de ameaça que apresentam as escavações nos solos brandos de Bogotá, cujos dados proporcionam uma valoração prévia nas etapas de factibilidade de um projeto de escavação que contribui a favorecer a resiliência e a sustentabilidade das zonas já desenvolvidas. <![CDATA[Determinação da infiltração potencial nas áreas de influência do aquífero Zona Bananera, Norte da Colômbia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100026&lng=pt&nrm=iso&tlng=pt Abstract Through the implementation of geographic information systems (GIS) and images of the study area obtained by remote sensors, the curve number method (NC) was implemented in this research, in order to determine potential recharge zones in two micro-basins in the aquifer region called Zona Bananera, located in the department of Magdalena in Northern Colombia. Potential infiltration of the area was estimated and the hydrological response for precipitation events with different return periods was evaluated. The predominant hydrological soil groups were found to be A and B, with 77.4% (84115.2 ha) in the Sevilla River micro-basin and 81.6% (7466.1 ha) in La Aguja micro-basin. The Sevilla River micro-basin showed both the best water regulation and enhancement of the infiltration process, evidenced by the existence of low as well as medium values ​​of curve number and potential surface runoff. The highest values ​​of potential runoff were in the middle and lower part of the micro-basins, where there are extensive areas covered with banana crops; indicating that anthropic intervention is a determining factor in the area’s hydrological response. Under current conditions, the micro-basins show a minimal risk of erosive processes for rainfall with return periods of less than 5 years, due to runoff occurrence of less than 100 mm. Within the study area, it was found that approximately 3380 hectares show favorable conditions to contribute to the recharge of the Zona Bananera aquifer, making it a strategic conservation area.<hr/>Resumen En la presente investigación, mediante la implementación de sistemas de información geográfica (SIG) e imágenes del territorio obtenidas por sensores remotos, se implementó el método del número de curva (NC), para determinar las zonas potenciales de recarga en dos microcuencas en la región acuífera denominada Zona Bananera, la cual se localiza en el departamento del Magdalena, Norte de Colombia. Se estimó la infiltración potencial del territorio y se evaluó la respuesta hidrológica para eventos de precipitación con diferentes periodos de retorno. Se encontró que los grupos hidrológicos de suelo predominantes fueron A y B, con 77.4 % (84115.2 ha) en la microcuenca río Sevilla y 81.6% (7466.1 ha) en la microcuenca quebrada La Aguja. La microcuenca río Sevilla presentó la mejor regulación hídrica y favorecimiento del proceso de infiltración, lo cual se evidenció con la existencia de bajos y medios valores del número de curva y escurrimientos superficiales potenciales. Los mayores valores de escurrimientos potenciales se localizaron en la parte media y baja de las microcuencas, donde existen extensas áreas con cultivo de Banano; indicando que la intervención antrópica es un factor determinante en la respuesta hidrológica del territorio. En las condiciones actuales, las microcuencas presentan bajo riesgo de procesos erosivos para lluvias con periodos de retorno menores de 5 años, debido a la ocurrencia de escurrimientos menores de 100 mm. En el área de estudio se encontró que aproximadamente 3380 hectáreas presentan condiciones propicias para contribuir a la recarga del acuífero Zona Bananera, convirtiéndola en un área estratégica de conservación.<hr/>Resumo Na presente pesquisa, mediante a implementação de sistemas de informação geográfica (SIG) e imagens do território obtidas por sensores remotos, implementou-se o método do número de curva (NC), para determinar as zonas potenciais de recarga em duas microbacias na região aquífera denominada Zona Bananera, a qual localiza-se no departamento de Magdalena, Norte da Colômbia. Estimou-se a infiltração potencial do território e avaliou-se a resposta hidrológica para eventos de precipitação com diferentes períodos de retorno. Encontrou-se que os grupos hidrológicos de solo predominantes foram A e B, com 77.4 % (84115.2 ha) na microbacia rio Sevilla e 81.6% (7466.1 ha) na microbacia arroio La Aguja. A microbacia rio Sevilla apresentou a melhor regulação hídrica e favorecimento do processo de infiltração, o qual evidenciou-se com a existência de baixos e médios valores do número de curva e escoamentos superficiais potenciais. Os maiores valores de escoamentos potenciais localizaram-se na parte média e baixa das microbacias, onde existem extensas áreas com cultivo de Banana; indicando que a intervenção antrópica é um fator determinante na resposta hidrológica do território. Nas condições atuais, as microbacias apresentam baixo risco de processos erosivos para chuvas com períodos de retorno menores de 5 anos, devido à ocorrência de escoamentos menores de 100 mm. Na área de estudo encontrou-se que aproximadamente 3380 hectares apresentam condições propícias para contribuir à recarga do aquífero Zona Bananera, convertendo-a em uma área estratégica de conservação. <![CDATA[Ultrassom aplicado na redução de viscosidade do bruto pesado]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100027&lng=pt&nrm=iso&tlng=pt Abstract Reducing the viscosity of heavy oil through upgrading techniques is crucial to maintaining the demand for oil, which is growing at an annual rate of 1.8%. The phenomenon of acoustic cavitation occurs when ultrasound is applied in the treatment of heavy crudes. This is an emerging technology that is being developed to improve the physical and chemical properties of highly viscous crudes, which facilitates handling, increases the proportion of light factions, and improves their price in the market. Taking into account that it does not yet operate on an industrial scale, a bibliographic review of the advances in acoustic cavitation technology with ultrasound for the improvement of heavy crude is justified, to contribute to the development of its industrial application by identifying new approaches and research guidelines in engineering and science. The objective of this article is to show the advance of said technology and describe the experiments carried out by various authors. For this purpose, a literature review was conducted with documents published from 1970 to 2020, which were compiled through a systematic search in academic databases. As a result of this review, some conceptual gaps and deficiencies in the phenomenological foundation were found, which explain the current difficulties to implement experimental tests and design the process at larger scales. These deficiencies limit the quality and repeatability of the results. A need was also identified to focus the efforts on a systematic experimentation that fulfills the laboratory and pilot plant phases, which are essential to take these technologies to an industrial scale.<hr/>Resumen La reducción de la viscosidad del crudo pesado mediante técnicas de mejoramiento es crucial para mantener la demanda de petróleo, que crece a una tasa anual de 1.8 %. El fenómeno de la cavitación acústica ocurre cuando el ultrasonido es aplicado en el tratamiento de crudos pesados. Esta es una tecnología emergente que se está desarrollando para mejorar las propiedades físicas y químicas de crudos altamente viscosos, lo cual facilita el manejo, aumenta la proporción de facciones livianas y mejora su precio en el mercado. Teniendo en cuenta que aún no opera a escala industrial, se justifica una revisión de literatura de los avances de la tecnología de cavitación acústica con ultrasonido para mejoramiento de crudo pesado, con el fin de contribuir con el desarrollo de su aplicación industrial mediante la identificación de nuevos enfoques y lineamientos de investigación en ingeniería y ciencias. El objetivo de este artículo es mostrar el avance de la tecnología y describir los experimentos realizados por diversos autores. Para ello, se realizó una revisión bibliográfica de los documentos que han sido publicados desde 1970 hasta 2020, dichos documentos se recopilaron mediante una búsqueda sistemática en bases de datos académicas. Como resultado de esta revisión, se encontraron algunos vacíos conceptuales y carencias en fundamentación fenomenológica, que explican las dificultades actuales para implementar tests experimentales y diseñar el proceso a escalas mayores. Estas carencias limitan la calidad y repetitividad en los resultados. También se identificó la necesidad de concentrar los esfuerzos en experimentación sistemática que cumpla con las fases de laboratorio y planta piloto, aspectos esenciales para llevar estas tecnologías a escala industrial.<hr/>Resumo A redução da viscosidade do bruto pesado mediante técnicas de melhoramento é crucial para manter a demanda de petróleo, que cresce a uma taxa anual de 1.8 %. O fenômeno da cavitação acústica ocorre quando o ultrassom é aplicado no tratamento de brutos pesados. Esta é uma tecnologia emergente que se está desenvolvendo para melhorar as propriedades físicas e químicas de brutos altamente viscosos, o qual facilita o manejo, aumenta a proporção de facções leves e melhora seu preço no mercado. Tendo em conta que ainda não opera em escala industrial, justifica-se uma revisão de literatura dos avanços da tecnologia de cavitação acústica com ultrassom para melhoramento de bruto pesado, com o fim de contribuir com o desenvolvimento de sua aplicação industrial mediante a identificação de novos enfoques e lineamentos de pesquisa em engenharia e ciências. O objetivo deste artigo é mostrar o avanço da tecnologia e descrever os experimentos realizados por diversos autores. Para isso, realizou-se uma revisão bibliográfica dos documentos que têm sido publicados desde 1970 até 2020, tais documentos recopilaram-se mediante uma busca sistemática em bases de dados acadêmicas. Como resultado desta revisão, encontraram-se alguns vazios conceituais e carências em fundamentação fenomenológica, que explicam as dificuldades atuais para implementar testes experimentais e desenhar o processo em escalas maiores. Estas carências limitam a qualidade e repetitividade nos resultados. Também se identificou a necessidade de concentrar os esforços em experimentação sistemática que cumpra com as fases de laboratório e planta piloto, aspectos essenciais para levar estas tecnologias à escala industrial. <![CDATA[Efeito da distorção harmônica de voltagem na eficiência de uma lâmpada compacta fluorescente]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100028&lng=pt&nrm=iso&tlng=pt Abstract This paper evaluates the effect of the voltage harmonic distortion over the efficiency of a compact fluorescent lamp that is fed with a constant RMS voltage and constant frequency. Several works have been published about the assessment of compact fluorescent lamps, but the effect of the voltage distortion over the efficiency is still an open topic. This work focuses on designing an experiment to estimate the efficiency of a compact fluorescent lamp while changing the voltage harmonic distortion of the power supply. First, a mathematical model that represents a bus susceptible to harmonic distortion (high impedance) that feeds the compact fluorescent lamp is analyzed. Then the mathematical model is reproduced through a test bench in a laboratory of rotating electrical machines. The test bench produces a three-phase bus with constant voltage and frequency, and variable voltage harmonic distortion. The compact fluorescent lamp is subjected to varying harmonic voltage distortion while recording its electrical variables and the produced lumens to estimate its efficiency. That is a practical approach to calculate the lamp efficiency while several works limit their scope measuring only the efficiency of the input converter. The experimental results show that a variation of the voltage harmonic distortion of 8 % on a compact fluorescent lamp reduces its efficiency. Those results put into evidence the importance of regulating harmonic distortion limits to reduce or prevent the increment of power losses caused by harmonic components.<hr/>Resumen En este artículo se evalúa el efecto de la distorsión armónica de voltaje sobre la eficiencia de una lámpara fluorescente compacta que es alimentada con un voltaje RMS y una frecuencia constante. Varios trabajos se han publicado acerca de la evaluación de lámparas fluorescentes compactas, pero el efecto de la distorsión de voltaje sobre la eficiencia aún es un tópico abierto. Este trabajo se enfoca en diseñar un experimento para estimar la eficiencia de una lámpara compacta fluorescente mientras cambia la distorsión armónica de voltaje de la fuente de alimentación. Se parte de un modelo matemático que representa un barraje susceptible a la distorsión armónica (alta impedancia) que alimenta la lámpara compacta fluorescente. Luego, el modelo matemático es reproducido a través de un banco de pruebas en un laboratorio de máquinas eléctricas rotativas. El banco de pruebas produce un barraje trifásico con voltaje y frecuencia constantes, y una distorsión armónica de voltaje variable. La lámpara fluorescente compacta es sometida a la variación de la distorsión armónica de voltaje mientras se registran sus variables eléctricas y los lúmenes producidos para estimar su eficiencia. Esta es una aproximación práctica para calcular la eficiencia de la lámpara, mientras que varios trabajos limitan su alcance midiendo solamente la eficiencia del convertidor de entrada. Los resultados experimentales muestran que una variación de la distorsión armónica de voltaje del 8 % en una lámpara fluorescente compacta reduce su eficiencia. Estos resultados ponen en evidencia la importancia de reducir los límites de distorsión armónica para reducir o prevenir el incremento de pérdidas de potencia causadas por componentes armónicos.<hr/>Resumo Neste artigo avalia-se o efeito da distorção harmônica de voltagem sobre a eficiência de uma lâmpada fluorescente compacta que é alimentada com uma voltagem RMS e uma frequência constante. Vários trabalhos se têm publicado acerca da avaliação de lâmpadas fluorescentes compactas, mas o efeito da distorção de voltagem sobre a eficiência ainda é um tópico aberto. Este trabalho enfoca-se em desenhar um experimento para estimar a eficiência de uma lâmpada compacta fluorescente enquanto muda a distorção harmônica de voltagem da fonte de alimentação. Parte-se de um modelo matemático que representa uma barragem susceptível à distorção harmônica (alta impedância) que alimenta a lâmpada compacta fluorescente. Depois, o modelo matemático é reproduzido através de um banco de provas em um laboratório de máquinas elétricas rotativas. O banco de provas produz uma barragem trifásica com voltagem e frequência constantes, e uma distorção harmônica de voltagem variável. A lâmpada fluorescente compacta é submetida à variação da distorção harmônica de voltagem enquanto registram-se suas variáveis elétricas e os lúmenes produzidos para estimar sua eficiência. Esta é uma aproximação prática para calcular a eficiência da lâmpada, enquanto que vários trabalhos limitam seu alcance medindo somente a eficiência do conversor de entrada. Os resultados experimentais mostram que uma variação da distorção harmônica de voltagem de 8 % em uma lâmpada fluorescente compacta reduz sua eficiência. Estes resultados põem em evidência a importância de reduzir os limites de distorção harmônica para reduzir ou prevenir o incremento de perdas de potência causadas por componentes harmônicos. <![CDATA[Efeito do ciclo térmico sobre o comportamento ante o desgaste abrasivo da liga Cu-1.9Be-0.25(Co+Ni)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100029&lng=pt&nrm=iso&tlng=pt Abstract Cu-Be alloys are considered high strength alloys when containing 0.2% to 2% of Be per weight, 0.2% to 2.7% of Co per weight, and up to 2.2% of Ni per weight, since they can present an elastic limit higher than 1380 MPa after aging (precipitation hardening), while, without heat treatment, they present an elastic limit between 205 MPa and 690 MPa [1]. Therefore, the complexity of the microstructure is a determining factor in the mechanical behavior of this type of alloys. In this work we analyzed the effect of microstructural variations obtained by cooling with water and with air from three different solubilization temperatures (750 °C, 800 °C and 850 °C) during 1 h, with and without aging, on the abrasive wear behavior of the Cu-1.9Be-0.25(Co+Ni) alloy. The chemical and microstructural characterization was performed by Dispersive Energy X-Ray Fluorescence (EDXRF) and Scanning Electron Microscopy (SEM-EDS), respectively. Abrasive wear behavior was evaluated under the guidelines of ASTM G65-16. Procedure E was used in this study, and the applied parameters were: force against the specimen (130 N), wheel revolutions (1000 rpm), linear abrasion (718 m) and test time (5 min). All tests were done in duplicate, showing a significant improvement in the abrasive wear behavior of the alloy, compared to the material in supply condition (T6). The lowest wear rates (&lt;0.3 g/min) and volumetric loss (&lt;200 mm3) were obtained with the specimens in solubilized condition with water cooling and without aging. The wear coefficients for the specimens with the highest resistance to abrasive wear are less than Ks=7x10-3.<hr/>Resumen Las aleaciones Cu-Be son consideradas aleaciones de alta resistencia cuando contienen entre 0,2% y 2% en peso de Be, de 0,2% a 2,7% en peso de Co y hasta 2,2% en peso de Ni, ya que pueden presentar un límite elástico superior a 1380 MPa después de envejecido (endurecimiento por precipitación), mientras que, sin tratamiento térmico, presentan un límite elástico entre 205 MPa y 690 MPa [1]. Por lo que la complejidad de la microestructura es un factor determinante en el comportamiento mecánico de este tipo de aleaciones. En este trabajo se analizó el efecto de las variaciones microestructurales obtenidas por enfriamiento en agua y al aire desde tres diferentes temperaturas de solubilización (750 °C, 800 °C y 850 °C) durante 1 h, con y sin envejecido, sobre el comportamiento ante el desgaste abrasivo de la aleación Cu-1.9Be-0.25(Co+Ni). La caracterización química y microestructural se realizó mediante Fluorescencia de Rayos X por Energía Dispersiva (EDXRF) y Microscopía Electrónica de Barrido (SEM-EDS), respectivamente. El comportamiento ante el desgaste abrasivo se evaluó bajo los lineamientos de la norma ASTM G65-16. El procedimiento E fue usado en este estudio. Todas las pruebas se hicieron por duplicado, mostrando una mejora significativa en el comportamiento ante el desgaste abrasivo de la aleación, en comparación con el material en condición de suministro (T6). Las menores velocidades de desgaste (&lt;0.3 g/min) y pérdida volumétrica (&lt;200 mm3) se obtuvieron para las probetas en condición solubilizada con enfriamiento en agua y sin envejecido. Los coeficientes de desgaste para las probetas con la mayor resistencia al desgaste abrasivo son inferiores a K.=7x10-3.<hr/>Resumo As ligas Cu-Be são consideradas ligas de alta resistência quando contêm entre 0,2% e 2% em peso de Be, de 0,2% a 2,7% em peso de Co e até 2,2% em peso de Ni, já que podem apresentar um limite elástico superior a 1380 MPa depois de envelhecido (endurecimento por precipitação), enquanto que, sem tratamento térmico, apresentam um limite elástico entre 205 MPa e 690 MPa [1]. Pelo que a complexidade da microestrutura é um fator determinante no comportamento mecânico deste tipo de ligas. Neste trabalho analisou-se o efeito das variações microestruturais obtidas por esfriamento com água e com ar desde três diferentes temperaturas de solubilização (750 °C, 800 °C e 850 °C) durante 1 h, com e sem envelhecido, sobre o comportamento ante o desgaste abrasivo da liga Cu-1.9Be-0.25(Co+Ni). A caracterização química e microestrutural realizou-se mediante Fluorescência de Raios X por Energia Dispersiva (EDXRF) e Microscopia Eletrônica de Varredura (SEM-EDS), respectivamente. O comportamento ante o desgaste abrasivo avaliou-se sob os lineamentos da norma ASTM G65-16. O procedimento E foi usado neste estudo. Todas as provas foram realizadas por duplicado, mostrando uma melhora significativa no comportamento ante o desgaste abrasivo da liga, em comparação com o material em condição de subministro (T6). As menores velocidades de desgaste (&lt;0.3 g/min) e perda volumétrica (&lt;200 mm3) obtiveram-se para as provetas em condição solubilizada com esfriamento em água e sem envelhecido. Os coeficientes de desgaste para as provetas com a maior resistência ao desgaste abrasivo são inferiores a Ks=7x10-3. <![CDATA[Detecção de tendências de homicídios na Colômbia usando Machine Learning]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100030&lng=pt&nrm=iso&tlng=pt Resumen En las últimas décadas, el número de homicidios violentos en América Latina ha crecido considerablemente debido a la ampliación y auge de grupos criminales organizados en zonas rurales y urbanas de las principales ciudades de países como México, Colombia y Venezuela. Con base en el alto índice de homicidio de estos países, consecuencia de la alta criminalidad, éstos han sido clasificados dentro de los más violentos a nivel mundial. Según datos reportados por el Observatorio del Delito de la Policía Nacional y la Fiscalía General de la Nación de Colombia, en 2019 se presentaron 1.032 asesinatos en Bogotá. Estos datos arrojan una tasa de 14,3 homicidios por cada 100.000 habitantes. A partir de esto, se estima que entre 1960 y 2019 se han generado alrededor de 226.215 homicidios, unas 3,834 muertes por año, en promedio. En este trabajo se presenta un modelo de machine learning basado en randomforest, el cual permite predecir las tendencias de homicidio violento (HV) en Colombia para los próximos 5 años. El proyecto tiene como objetivo servir de instrumento para facilitar la toma de decisiones en organismos como la Fiscalía General de la Nación y la Policía Nacional. El modelo fue evaluado con un conjunto de datos generado a partir del Sistema de Información Estadístico Delincuencial, Contravencional y Operativo (SIEDCO) de la Fiscalía, el cual cuenta con 2.662.402 registros de delitos realizados en Colombia desde el año 1960 hasta 2019.<hr/>Abstract The number of violent homicides in Latin America has grown considerably in recent decades, due to the expansion and rise of organized criminal groups in rural and urban areas of the main cities of countries such as Mexico, Colombia and Venezuela. Given their high homicide rate as a consequence of the high crime rate, these countries have been classified among the most violent in the world. According to data reported by the Crime Observatory, the National Police and the Attorney General's Office of Colombia, in 2019 there were 1,032 murders in Bogotá. This data shows a homicide rate of 14.3 per 100,000 inhabitants. From this, it is estimated that between 1960 and 2019, around 226,215 homicides were generated, which is, on average, 3,834 deaths per year. In this work a random forest-based machine learning model is presented, which allows predicting violent homicide (VH) trends in Colombia for the next 5 years. The objective of the model is to serve as an instrument to facilitate decision-making in organizations such as the Prosecutor’s Office and the National Police. The model was evaluated with a dataset obtained from the Criminal, Contraventional and Operational Statistical Information System (SIEDCO in Spanish) of the Prosecutor's Office, which has 2,662,402 records of crimes committed in Colombia from 1960 to 2019.<hr/>Resumo Nas últimas décadas, o número de homicídios violentos na América Latina tem crescido consideravelmente devido à ampliação e auge de grupos criminais organizados em zonas rurais e urbanas das principais cidades de países como o México, a Colômbia e a Venezuela. Com base no alto índice de homicídio destes países, consequência da alta criminalidade, estes têm sido classificados dentro dos mais violentos a nível mundial. Segundo dados reportados pelo Observatório do Delito da Polícia Nacional e a Fiscalia Geral da Nação da Colômbia, em 2019 apresentaram-se 1.032 assassinatos em Bogotá. Estes dados mostram uma taxa de 14,3 homicídios por cada 100.000 habitantes. A partir disto, estima-se que entre 1960 e 2019 tem sido gerado ao redor de 226.215 homicídios, umas 3,834 mortes por ano, em média. Neste trabalho apresenta-se um modelo de machine learning baseado em random forest, o qual permite predizer as tendências de homicídio violento (HV) na Colômbia para os próximos 5 anos. O projeto tem como objetivo servir de instrumento para facilitar a tomada de decisões em organismos como a Fiscalia Geral da Nação e a Polícia Nacional. O modelo foi avaliado com um conjunto de dados gerado a partir do Sistema de Informação Estatístico Delinquencial, Contravencional e Operativo (SIEDCO) da Fiscalia, o qual conta com 2.662.402 registros de delitos realizados na Colômbia desde o ano 1960 até 2019. <![CDATA[Predição de radiação solar em sistemas fotovoltaicos utilizando técnicas de aprendizagem automática]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100031&lng=pt&nrm=iso&tlng=pt Resumen La estimación de la radiación solar es fundamental para quienes participan en la planificación de granjas de energía solar, ya sean aisladas o conectadas a las redes de distribución eléctrica. Esto para el aprovechamiento de las fuentes de energía renovables, reducir el impacto producido por el cambio climático, e incrementar los índices de cobertura en el servicio eléctrico. De igual manera, el número de estaciones de medición existentes es insuficiente para cubrir toda la geografía de una región, y muchas de ellas no están capturando datos de radiación solar. Por consiguiente, es importante hacer uso de modelos matemáticos, estadísticos y de inteligencia artificial que permitan predecir la radiación solar a partir de datos meteorológicos disponibles. En este trabajo se utilizaron conjuntos de datos tomados de estaciones de medición ubicadas en las ciudades de Cali y Villavicencio, además de un conjunto de datos generado por la API World Weather Online para la ciudad de Mocoa. La razón fue realizar estimaciones de radiación solar utilizando distintas técnicas de aprendizaje automático para regresión y clasificación; el principal objetivo fue evaluar su desempeño. Aunque en la mayoría de los trabajos relacionados los investigadores utilizaron el aprendizaje profundo para la predicción de la radiación solar, este estudio demostró que, si bien las redes neuronales artificiales son la técnica más utilizada, otros algoritmos de aprendizaje automático como Random Forest, Máquinas de Soporte Vectorial y AdaBoost también proporcionan estimaciones con suficiente precisión para ser utilizados en este campo de estudio.<hr/>Abstract Estimation of solar radiation is essential to help decision-makers in the planning of isolated solar energy farms or connected to electricity distribution networks to take advantage of renewable energy sources, reduce the impact produced by climate change, and increase coverage rates in electricity service. The number of existing measurement stations is insufficient to cover the entire geography of a region, and many of them are not capturing solar radiation data. Therefore, it is important to use mathematical, statistical, and artificial intelligence models, which allow predicting solar radiation from meteorological data available. In this work, datasets taken from measurement stations located in the cities of Cali and Villavicencio were used, in addition to a dataset generated by the World Weather Online API for the town of Mocoa, to carry out solar radiation estimations using different machine learning techniques for regression and classification to evaluate their performance. Although in most related works researchers used deep learning to predict solar radiation, this work showed that, while artificial neural networks are the most widely used technique, other machine learning algorithms such as Random Forest, Vector Support Machines and AdaBoost, also provide estimates with sufficient precision to be used in this field of study.<hr/>Resumo A estimativa da radiação solar é fundamental para quem participa na planificação de granjas de energia solar, já sejam isoladas ou conectadas às redes de distribuição elétrica. Isto para o aproveitamento das fontes de energia renováveis, reduzir o impacto produzido pela mudança climática, e incrementar os índices de cobertura no serviço elétrico. De igual maneira, o número de estações de medição existentes é insuficiente para cobrir toda a geografia de uma região, e muitas delas não estão capturando dados de radiação solar. Por conseguinte, é importante fazer uso de modelos matemáticos, estatísticos e de inteligência artificial que permitam predizer a radiação solar a partir de dados meteorológicos disponíveis. Neste trabalho utilizaram-se conjuntos de dados tomados de estações de medição localizadas nas cidades de Cali e Villavicencio, além de um conjunto de dados gerado pela API World Weather Online para a cidade de Mocoa. A razão foi realizar estimativas de radiação solar utilizando distintas técnicas de aprendizagem automática para regressão e classificação; o principal objetivo foi avaliar seu desempenho. Ainda que na maioria dos trabalhos relacionados os pesquisadores utilizaram a aprendizagem profunda para a predição da radiação solar, este estudo demonstrou que, se bem as redes neuronais artificiais são a técnica mais utilizada, outros algoritmos de aprendizagem automática como Random Forest, Máquinas de Suporte Vectorial e AdaBoost também proporcionam estimativas com suficiente precisão para serem utilizados neste campo de estudo. <![CDATA[Identificação automática de transformação no bosque seco tropical colombiano usando GMM e UBM-GMM]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100032&lng=pt&nrm=iso&tlng=pt Resumen Hoy, los métodos de aprendizaje automático se han convertido en una herramienta para ayudar a frenar los efectos del calentamiento global, al resolver cuestiones ecológicas. En particular, el bosque seco tropical (BST) de Colombia se encuentra actualmente amenazado por la deforestación generada, desde la época colonial, por la ganadería, la minería y el desarrollo urbano. Uno de los desafíos urgentes en esta área es comprender la transformacion y degradación de los bosques. Tradicionalmente, los cambios de los ecosistemas se miden por varios niveles de transformación (alto, medio, bajo). Estos se obtienen a través de observación directa, recuento de especies y medidas de variación espacial a lo largo del tiempo. Por ende, estos métodos son invasivos y requieren de largos lapsos de observación en los lugares de estudio. Una alternativa eficaz a los métodos clásicos es el monitoreo acústico pasivo, que es menos invasivo, ya que evita el aislamiento de las especies y reduce el tiempo de los investigadores en los sitios. Sin embargo, implica la generación de múltiples datos y la necesidad de herramientas computacionales destinadas al análisis de las grabaciones. Este trabajo propone un método para identificar automáticamente la transformación del BST mediante grabaciones acústicas, aplicando dos modelos de clasificación: Gaussian Mixture Models (GMM), por cada región estudiada, y Universal Background Model (UBM), para un modelo general. Además, contiene un análisis de índices acústicos, con el fin de detectar los más representativos para las transformaciones del BST. Nuestra propuesta de GMM alcanzó una precisión de 93% y 89% para las regiones de La Guajira y Bolívar. El modelo general UBM logró 84% de precisión.<hr/>Abstract Today, machine learning methods have become a powerful tool to help curb the effects of global warming by solving ecological questions. In particular, the Colombian Tropical Dry Forest (TDF) is an important ecosystem that is currently under threat due to deforestation generated by cattle, mining, and urban development since colonial times. One of the urgent challenges in this area is to understand the threatened ecosystems landscape transformation and forest degradation. Traditionally, environmental conservation experts measure these changes using transformation levels (high, medium, low). These levels have been obtained through direct observation, counting species, and measures of spatial variation through the time. Therefore, these methods are invasive to the study landscapes and require large amounts of time analysis. A proficient alternative to classical methods is the passive acoustic monitoring, as they are less invasive to the environment, avoid seeing the difficulty of species from isolated individuals, and help reduce the time of researchers at the sites. Even though too much data is generated, and computational tools have been required for their analysis. This paper proposes a new method to automatically identify the transformation in the Colombian TDF. The method is based on Gaussian Mixture Models (GMM) and Universal Background Model (UBM). In addition, it includes an acoustic indices analysis to select the most informative variables. The GMM proposal was tested in two local sites (La Guajira and Bolivar regions) and achieved an accuracy of 93% and 89% for each one, and it was obtained 84% with the general UBM model.<hr/>Resumo Hoje, os métodos de aprendizagem automática se têm convertido em uma ferramenta para ajudar a frear os efeitos do aquecimento global, ao resolver questões ecológicas. Em particular, o bosque seco tropical (BST) da Colômbia encontra-se atualmente ameaçado pelo desmatamento gerado, desde a época colonial, pela pecuária, mineração e pelo desenvolvimento urbano. Um dos desafios urgentes nesta área é compreender a transformação e degradação dos bosques. Tradicionalmente, as mudanças dos ecossistemas são medidas por vários níveis de transformação (alto, médio, baixo). Estes obtêm-se através de observação direta, reconto de espécies e medidas de variação espacial ao longo do tempo. Consequentemente, estes métodos são invasivos e requerem de longos lapsos de observação nos lugares de estudo. Uma alternativa eficaz aos métodos clássicos é o monitoramento acústico passivo, que é menos invasivo, já que evita o isolamento das espécies e reduz o tempo dos pesquisadores nos lugares. Porém, implica a geração de múltiplos dados e a necessidade de ferramentas computacionais destinadas à análise das gravações. Este trabalho propõe um método para identificar automaticamente a transformação do BST mediante gravações acústicas, aplicando dois modelos de classificação: Gaussian Mixture Models (GMM), por cada região estudada, e Universal Background Model (UBM), para um modelo geral. Além, contém uma análise de índices acústicos, com o fim de detectar os mais representativos para as transformações do BST. Nossa proposta de GMM alcançou uma precisão de 93% e 89% para as regiões de La Guajira e Bolívar. O modelo geral UBM logrou 84% de precisão. <![CDATA[Métricas de legibilidade do código fonte: revisão sistemática de literatura]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100033&lng=pt&nrm=iso&tlng=pt Resumen La calidad del software es un aspecto ligado directamente a los costos futuros de mantenimiento y, generalmente, se cuantifica mediante métricas de calidad de los productos de software. Uno de los aspectos a tener en cuenta para evaluar la calidad del software es su mantenibilidad, ya que tiene un alto impacto sobre los costos totales de los proyectos de software. En particular, se estima que el 70% del tiempo de mantenimiento se destina a comprender el código, por lo que resulta importante poder medir la legibilidad de un fragmento de código fuente adecuadamente. La legibilidad se define como la facilidad con la que una persona puede leer y comprender un fragmento de código escrito por otra persona. Esta característica es crucial para facilitar la compresión del código durante las tareas de mantenimiento de software, por lo que resulta necesario poder medir la legibilidad del código fuente. Por lo tanto, a lo largo de los últimos años, los investigadores en el área han propuesto múltiples métricas para medir la legibilidad del código fuente. No obstante, sigue siendo un reto poder evaluar con precisión la legibilidad del código fuente de una forma ampliamente aceptada. Por ello, es indispensable dar continuidad a este tipo de investigaciones y, para esto, es necesario conocer los avances recientes. Este artículo presenta una síntesis y análisis de las métricas de legibilidad de código, mediante una revisión sistemática de literatura, mostrando una recopilación de las características y los métodos utilizados para su medición. Los resultados de este trabajo serán de utilidad para que los investigadores en el área puedan proponer nuevas métricas de legibilidad del código fuente.<hr/>Abstract Software quality is an aspect directly linked to future maintenance costs, and is generally quantified by means of quality metrics of the software products. One of the main aspects to evaluate software quality is its maintainability, since it has a high impact on the total costs of software projects. In particular, it is estimated that 70% of the maintenance time is dedicated to understand the code, so it is important to be able to measure the readability of a source code fragment properly. Readability is defined as the ease with which a person can read and understand a piece of code written by another person, this feature is crucial to facilitate the understanding of the code during software maintenance tasks. In this sense, it is necessary to be able to measure the readability of the source code. Therefore, over the past few years, researchers in the area have proposed multiple metrics to measure the readability of source code. However, it remains a challenge to be able to accurately assess the readability of source code in a widely accepted way. Therefore, it is essential to give continuity to this type of research and, for this, it is necessary to know the most recent advances. This paper presents a synthesis and analysis of code readability metrics, through a systematic review of literature, showing a compilation of the characteristics and methods used for their measurement. Results of this work will be useful for researchers in the area to propose new source code readability metrics.<hr/>Resumo A qualidade do software é um aspecto ligado diretamente aos custos futuros de manutenção e, geralmente, quantifica-se mediante métricas de qualidade dos produtos de software. Um dos aspectos a ter em conta para avaliar a qualidade do software é sua manutenibilidade, já que tem um alto impacto sobre os custos totais dos projetos de software. Em particular, estima-se que 70% do tempo de manutenção destina-se a compreender o código, pelo que resulta importante poder medir a legibilidade de um fragmento de código fonte adequadamente. A legibilidade define-se como a facilidade com a que uma pessoa pode ler e compreender um fragmento de código escrito por outra pessoa. Esta característica é crucial para facilitar a compreensão do código durante as tarefas de manutenção de software, pelo que resulta necessário poder medir a legibilidade do código fonte. Portanto, ao longo dos últimos anos, os pesquisadores na área têm proposto múltiplas métricas para medir a legibilidade do código fonte. Porém, segue sendo um desafio poder avaliar com precisão a legibilidade do código fonte de uma forma amplamente aceita. Por isso, é indispensável dar continuidade a este tipo de pesquisas e, para isto, é necessário conhecer os avanços recentes. Este artigo apresenta uma síntese e análise das métricas de legibilidade de código, mediante uma revisão sistemática de literatura, mostrando uma recopilação das características e os métodos utilizados para sua medição. Os resultados deste trabalho serão de utilidade para que os pesquisadores na área possam propor novas métricas de legibilidade do código fonte. <![CDATA[Framework conceitual para o desenho colaborativo de Sistemas de Informação em Saúde]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100034&lng=pt&nrm=iso&tlng=pt Resumen El diseño de sistemas de información ajustado a las necesidades del sector salud requiere una atención especial, debido a la complejidad de la información, la compatibilidad y el soporte de los sistemas requerido para este sector. A pesar de existir iniciativas nacionales para la estandarización de la información que comparten las entidades del sector salud, existen factores como el déficit financiero del sector y los malos manejos de los recursos que impactan de forma negativa en esta estandarización y también en la prestación de los servicios de salud, especialmente, los relacionados con los derechos sexuales y reproductivos. En este artículo se propone un framework conceptual para el diseño colaborativo de sistemas de información en salud, inicialmente priorizado para el dominio de salud sexual y reproductiva, lo cual permitirá contar con un marco de trabajo que contribuya en la captura, el almacenamiento, el tratamiento y la consulta de la información de salud de los colombianos de una forma estandarizada, actualizada y segura. El framework se compone de una ontología de dominio, una guía de implementación y otros componentes que permiten la escalabilidad de este, lo cual evidencia la importancia de este tipo de soluciones para este sector, y promueve el diseño de sistemas de información en salud bajo el concepto de trabajo colaborativo entre las organizaciones interesadas. Los resultados obtenidos muestran que la estandarización de la información y el trabajo colaborativo permite diseñar sistemas más eficientes y al mismo tiempo compatibles e interoperables, lo cual reduce los trámites administrativos y la pérdida de datos importantes en la atención médica.<hr/>Abstract The design of information systems tailored to the needs of the health sector requires special attention, due to the complexity of the information, compatibility and support of the systems required for this sector. Despite national initiatives for the standardization of information shared by health sector entities, there are factors such as the financial deficit of the sector and the poor management of resources that negatively impact this standardization and also on the provision of health services, especially services related to sexual and reproductive rights. Having a framework can contribute to the capture, storage, treatment and consultation of Colombian health information in a standardized, up-to-date and secure way, which is why this article proposes a conceptual framework for the collaborative design of health information systems, initially prioritized for the domain of sexual and reproductive health. The framework consists of a domain ontology, an implementation guide and other components that allow the scalability of this, highlighting the importance of such solutions for this sector, promoting the design of health information systems under the concept of collaborative work between interested organizations. The results show that standardization of information and collaborative work allows to design more efficient and at the same time compatible and interoperable systems, which reduces administrative procedures and the loss of important data in health care.<hr/>Resumo O desenho de sistemas de informação ajustado às necessidades do setor da saúde requer uma atenção especial, devido à complexidade da informação, da compatibilidade e do suporte dos sistemas requerido para este setor. Apesar de existir iniciativas nacionais para a padronização da informação que compartem as entidades do setor da saúde, existem fatores como o déficit financeiro do setor e os maus manejos dos recursos que impactam de forma negativa nesta padronização e também na prestação dos serviços de saúde, especialmente, os relacionados com os direitos sexuais e reprodutivos. Neste artigo propõe-se um framework conceitual para o desenho colaborativo de sistemas de informação em saúde, inicialmente priorizado para o domínio de saúde sexual e reprodutiva, o qual permitirá contar com um marco de trabalho que contribua na captura, no armazenamento, no tratamento e na consulta da informação de saúde dos colombianos de uma forma padronizada, atualizada e segura. O framework compõe-se de uma ontologia de domínio, uma guia de implementação e outros componentes que permitem a escalabilidade deste, o qual evidencia a importância deste tipo de soluções para este setor, e promove o desenho de sistemas de informação em saúde sob o conceito de trabalho colaborativo entre as organizações interessadas. Os resultados obtidos mostram que a padronização da informação e o trabalho colaborativo permitem desenhar sistemas mais eficientes e ao mesmo tempo compatíveis e interoperáveis, o qual reduz os trâmites administrativos e a perda de dados importantes na atenção médica. <![CDATA[Prevenção da síndrome de Burnout mediante programação neurolinguística suportada pela Web das Coisas: Mapeamento sistemático]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100035&lng=pt&nrm=iso&tlng=pt Resumen En esta investigación, mediante la exploración de la literatura, se realizó un mapeo sistemático sobre la aplicación de técnicas de programación neurolingüística (PNL) soportadas en la Web de las Cosas (WoT) para prevenir el síndrome de Burnout. Dicho síndrome es un tipo de estrés laboral que causa agotamiento físico, mental y emocional, generando una incapacidad para trabajar, dado que es un proceso paulatino en el cual el trabajador pierde interés por sus tareas, carece de sentido de responsabilidad y puede generar profundas depresiones. En los estudios encontrados se destaca el uso de la WoT para la detección de emociones y estrés laboral, para ello sobresale el uso de sensores capaces de medir Respuesta galvánica de la piel GSR, Frecuencia cardiaca HR, Fotopletismografía PPG, Electrocardiograma ECG, Cámaras, Micrófonos y Microprocesadores de bajo costo, así como la utilización de Inteligencia Artificial para procesar estos datos, entre las técnicas y los algoritmos más usados destacan Máquinas de Vectores de Soporte SVM, K-vecino más cercano y clasificador Naive Bayes. En los trabajos en los que se detectan emociones o estrés laboral son muy pocos los que intentan alterar el entorno mental o ambiental del usuario para llevarlo a una emoción positiva o disminuir el estrés. Se evidenció la posibilidad de la utilización de técnicas de PNL en la prevención del síndrome de Burnout. Sin embargo, no se encontró ningún trabajo que relacionara la WoT como soporte a las técnicas PNL para prevenir el síndrome de Burnout, lo cual se considera como una oportunidad de investigación en estos campos.<hr/>Abstract This article presents an exploration of the literature through a systematic mapping around the application of neurolinguistic programming techniques (NLP) supported on the Web of Things (WoT) to prevent Burnout syndrome. This syndrome is a type of work stress that causes physical, mental and emotional exhaustion, generating an inability to work, since it is a gradual process in which the worker loses interest in their tasks, lacks a sense of responsibility and can generate deep depression. In the studies found, the use of WoT for the detection of emotions and work stress stands out, for this, the use of sensors capable of measuring Galvanic response of the skin GSR, HR heart rate, PPG photoplethysmography, ECG electrocardiogram, cameras, Low-cost microphones and microprocessors, as well as the use of Artificial Intelligence to process this data, among the most used techniques and algorithms are SVM Support Vector Machines, K-nearest neighbor and Naive Bayes classifier. In jobs in which emotions or work stress are detected, very few attempt to alter the mental or environmental environment of the user to bring them to a positive emotion or reduce stress. The possibility of using NLP techniques in the prevention of Burnout syndrome was evidenced. However, no work was found that related WoT as a support to NLP techniques to prevent Burnout syndrome, which is considered as a research opportunity in these fields.<hr/>Resumo Nesta pesquisa, mediante a exploração da literatura, realizou-se um mapeamento sistemático sobre a aplicação de técnicas de programação neurolinguística (PNL) suportadas na Web das Coisas (WoT) para prevenir a síndrome de Burnout. Dita síndrome é um tipo de estresse laboral que causa esgotamento físico, mental e emocional, gerando uma incapacidade para trabalhar, já que é um processo paulatino no qual o trabalhador perde interesse por suas tarefas, carece de sentido de responsabilidade e pode gerar profundas depressões. Nos estudos encontrados destaca-se o uso da WoT para a detecção de emoções e estresse laboral, para isso sobressai o uso de sensores capazes de medir Resposta galvânica da pele GSR, Frequência cardíaca HR, Fotopletismografia PPG, Eletrocardiograma ECG, Câmaras, Microfones e Microprocessadores de baixo custo, assim como a utilização de Inteligência Artificial para processar estes dados, entre as técnicas e os algoritmos mais usados destacam Máquinas de Vetores de Suporte SVM, K-vizinho mais próximo e classificador Naive Bayes. Nos trabalhos nos quais se detectam emoções ou estresse laboral são muito poucos os que intentam alterar o entorno mental ou ambiental do usuário para levá-lo a uma emoção positiva ou diminuir o estresse. Evidenciou-se a possibilidade da utilização de técnicas de PNL na prevenção da síndrome de Burnout. Porém, não se encontrou nenhum trabalho que relacionasse a WoT como suporte às técnicas PNL para prevenir a síndrome de Burnout, o que se considera como uma oportunidade de pesquisa nestas áreas. <![CDATA[Métricas baseadas em um enfoque guiado por riscos para avaliar a comunicação, cooperação e coordenação em equipes de desenvolvimento global de software]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100036&lng=pt&nrm=iso&tlng=pt Resumen El éxito del desarrollo global de software (DGS) depende, en gran parte, de la forma como se comunican, cooperan y coordinan (3Cs) los esfuerzos en la gestión de los proyectos y los equipos de trabajo geográficamente dispersos. En la literatura, se identifican varios trabajos que proponen riesgos y métricas para proyectos de DGS, pero algunos de ellos no se describen con detalle, son ambiguos o complicados de entender, lo que dificulta ubicarlos en alguna categoría precisa. Además, es necesario clasificar los riesgos de una manera menos subjetiva, que mejore su comprensión; facilite la definición y aplicación de herramientas para medir su impacto, y genere algunos indicadores que apoyen la toma de decisiones en los equipos de DGS. En este artículo, se proponen 37 riesgos para la comunicación, cooperación y coordinación en el DGS, como resultado de la comparación e integración de riesgos identificados en la literatura. También se presenta un conjunto de métricas definidas con la aplicación del paradigma Goal Question Metric (GQM), organizadas con estas interrogantes: ¿qué mide?, donde se establece el atributo por calibrar, y ¿cómo lo mide?, donde se indica la métrica a través de los siguientes elementos: descripción, tipo, escala y función de cálculo. Mediante la técnica de grupo focal, se evaluó la completitud, pertinencia, claridad, precisión y facilidad de uso de las métricas, que podrían resultar útiles para las organizaciones, equipos, proyectos y consultores que operan en contextos de DGS.<hr/>Abstract The success of Global Software Development (GSD) depends largely on how geographically dispersed project management and teamwork efforts are communicated, cooperated and coordinated (3Cs). From a literature analysis, some works were found where risks and metrics for DGS projects are proposed, but it was evidenced that some risks are not described in detail, they are ambiguous and hard to understand, which makes it difficult to know which category they belong to. In addition, it is necessary to classify risks in a less-subjective way, which allows to improve their understanding and thus define and apply measurement tools to obtain the impact magnitude of mentioned risks, and generate some indicators for support decision-making in DGS teams. In this article, 37 risks for the communication, cooperation and coordination in the DGS are proposed, as a result of the comparison and integration of identified risks in the literature. A set of metrics defined with the application of the Goal Question Metric (GQM) paradigm is also presented, organized according to these questions: What does it measure? Where the attribute to be measured is established; How to measure it? Where the metric is formulated through the following elements: description, type, scale and calculation function. Through the focus group technique, its completeness, relevance, clarity, precision, and ease of use were evaluated. The proposed metrics could be useful for organizations, teams, projects, and consultants operating in DGS contexts.<hr/>Resumo O êxito do desenvolvimento global de software (DGS) depende, em grande parte, da forma como se comunicam, cooperam e coordenam (3Cs) os esforços na gestão dos projetos e das equipes de trabalho geograficamente dispersas. Na literatura, identificam-se vários trabalhos que propõem riscos e métricas para projetos de DGS, mas alguns deles não se descrevem com detalhe, são ambíguos ou complicados de entender, o que dificulta localizá-los em alguma categoria precisa. Além disso, é necessário classificar os riscos de uma maneira menos subjetiva, que melhore sua compreensão, facilite a definição e aplicação de ferramentas para medir seu impacto, e gere alguns indicadores que apoiem a tomada de decisões nas equipes de DGS. Neste artigo, propõem-se 37 riscos para a comunicação, cooperação e coordenação no DGS, como resultado da comparação e integração de riscos identificados na literatura. Também se apresenta um conjunto de métricas definidas com a aplicação do paradigma Goal Question Metric (GQM), organizadas com estas interrogantes: o que mede?, onde estabelece-se o atributo por calibrar, e como é medido?, onde indica-se a métrica através dos seguintes elementos: descrição, tipo, escala e função de cálculo. Mediante a técnica de grupo focal, avaliou-se a completitude, pertinência, claridade, precisão e facilidade de uso das métricas, que poderiam resultar úteis para as organizações, equipes, projetos e consultores que operam em contextos de DGS. <![CDATA[Sistema de assistência à condução usando visão por computador e aprendizagem máquina]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100037&lng=pt&nrm=iso&tlng=pt Resumen La seguridad ha sido uno de los puntos claves en el diseño vehicular, por lo que uno de los principales objetivos es implementar sistemas de alerta para notificar al conductor sobre algún proceso inadecuado o atípico en su conducción, con el fin de evitar accidentes que afecten a sus ocupantes, así como a terceros; un ejemplo, de esto se observa en el auge de los vehículos autónomos. De acuerdo con la Organización Mundial de la Salud, en el 2016 se presentaron 1.35 millones de muertes relacionadas con accidentes de tráfico, por ello, actualmente se crean más sistemas para monitorizar el ambiente alrededor del vehículo de modo que se garantice una conducción segura en todo momento. Esta investigación presenta el primer sistema de asistencia a la conducción desarrollado para Colombia, el sistema detecta y reconoce señales de tránsito preventivas y reglamentarias basado en clasificadores Haar, lo cual permite que su precisión no se afecte debido a las rotaciones y escala de las señales presentes en un viaje sobre un trayecto real. El sistema reconoce salidas de carril, estimación de la dirección de la curva y detección de obstáculos que sobresalen en la carretera utilizando algoritmos de visión por computadora convirtiéndolo en un sistema de bajo costo computacional. Además, esta investigación proporciona los primeros clasificadores en cascada resultantes para la detección de señales reglamentarias y preventivas colombianas. El sistema es probado en ambientes reales de carreteras colombianas obteniendo una precisión superior al 90%. La investigación demuestra que métodos basados en visión por computadora son competitivos frente a propuestas actuales como las redes neuronales profundas.<hr/>Abstract Safety has been one of the key points in vehicle design, in this case one of its main objectives is to implement warning systems to notify the driver about inappropriate or atypical process in their driving process, trying to avoid accidents that affect their vehicle passengers, as well as inflicting damage on third parties. Day by day, more systems are created to monitor the environment around the vehicle in order to ensure safe driving at all times. According to the World Health Organization, for 2016 there were 1.35 million deaths related to traffic accidents. This research presents the first driving assistance system developed for Colombia, the system detects and recognizes preventive and regulatory traffic signals and its precision is not affected by rotations and scale of the traffic signals present in an actual route, this is this way because the system is based on Haar classifiers. The system recognizes lane deviations, estimation of the curve direction and obstacle protruding along the way using computer vision algorithms, making it a low-cost computational system. Furthermore, this research provides the first resulting cascades for the detection of Colombian regulatory and preventive traffic signals. The system is tested in real environments on Colombian roads, obtaining an accuracy of over 90%. This research shows that computer vision-based methods are competitive against current proposals such as deep neural networks.<hr/>Resumo A segurança tem sido um dos pontos chaves no desenho veicular, pelo que um dos principais objetivos é implementar sistemas de alerta para notificar ao condutor sobre algum processo inadequado ou atípico em sua condução, com o fim de evitar acidentes que afetem a seus ocupantes, assim como a terceiros; um exemplo, disto observa-se no auge dos veículos autônomos. De acordo com a Organização Mundial da Saúde, em 2016 apresentaram-se 1.35 milhões de mortes relacionadas com acidentes de tráfico, por isso, atualmente criam-se mais sistemas para monitorizar o ambiente ao redor do veículo de modo que se garanta uma condução segura em todo momento. Esta pesquisa apresenta o primeiro sistema de assistência à condução desenvolvido para a Colômbia, o sistema detecta e reconhece sinais de trânsito preventivos e regulamentário baseado em classificadores Haar, o que permite que sua precisão não seja afetada devido às rotações e escala dos sinais presentes em uma viagem sobre um trajeto real. O sistema reconhece saídas de faixa, estimação da direção da curva e detecção de obstáculos que sobressaem na estrada utilizando algoritmos de visão por computador convertendo-o em um sistema de baixo custo computacional. Além disso, esta pesquisa proporciona os primeiros classificadores em cascata resultantes para a detecção de sinais regulamentários e preventivos colombianos. O sistema é provado em ambientes reais de estradas colombianas obtendo uma precisão superior a 90%. A pesquisa demonstra que métodos baseados em visão por computador são competitivos frente a propostas atuais como as redes neuronais profundas. <![CDATA[Adaptação, comparação e melhora de algoritmos metaheurísticos ao problema de etiquetado de partes do discurso]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100038&lng=pt&nrm=iso&tlng=pt Abstract Part-of-Speech Tagging (POST) is a complex task in the preprocessing of Natural Language Processing applications. Tagging has been tackled from statistical information and rule-based approaches, making use of a range of methods. Most recently, metaheuristic algorithms have gained attention while being used in a wide variety of knowledge areas, with good results. As a result, they were deployed in this research in a POST problem to assign the best sequence of tags (roles) for the words of a sentence based on information statistics. This process was carried out in two cycles, each of them comprised four phases, allowing the adaptation to the tagging problem in metaheuristic algorithms such as Particle Swarm Optimization, Jaya, Random-Restart Hill Climbing, and a memetic algorithm based on Global-Best Harmony Search as a global optimizer, and on Hill Climbing as a local optimizer. In the consolidation of each algorithm, preliminary experiments were carried out (using cross-validation) to adjust the parameters of each algorithm and, thus, evaluate them on the datasets of the complete tagged corpus: IULA (Spanish), Brown (English) and Nasa Yuwe (Nasa). The results obtained by the proposed taggers were compared, and the Friedman and Wilcoxon statistical tests were applied, confirming that the proposed memetic, GBHS Tagger, obtained better results in precision. The proposed taggers make an important contribution to POST for traditional languages (English and Spanish), non-traditional languages (Nasa Yuwe), and their application areas.<hr/>Resumen La identificación de partes del discurso (Part-of-Speech Tagging, POST) es una tarea compleja en las aplicaciones de procesamiento de lenguaje natural. Ha sido abordada desde enfoques basados en información estadística y reglas, haciendo uso de distintos métodos y, últimamente, se destacan los algoritmos metaheurísticos obteniendo buenos resultados. Por ello, se involucran en esta investigación para asignar la mejor secuencia de etiquetas (roles) para las palabras de una oración, basándose en información estadística. Este proceso se desarrolló en 2 ciclos, donde cada ciclo tuvo 4 fases para la adaptación al problema de etiquetado en los algoritmos metaheurísticos Particle Swarm Optimization, Jaya, Random-Restart Hill Climbing, y un algoritmo memético basado en Global-Best Harmony Search como optimizador global, y en Hill Climbing como optimizador local. Se realizaron experimentos preliminares (utilizando validación cruzada), para ajustar los parámetros de cada algoritmo y luego ejecutarlos sobre los datasets completos de los corpus etiquetados IULA (castellano), Brown (inglés) y Nasa Yuwe (Nasa). Los resultados obtenidos por los etiquetadores propuestos se compararon mediante las pruebas estadísticas no paramétricas de Friedman y Wilcoxon, ratificando que el memético propuesto, GBHS Tagger, obtiene mejores resultados de precisión. Los etiquetadores propuestos se convierten en un aporte muy importante para el POST, tanto para lenguas tradicionales (Inglés y Castellano), no tradicionales (Nasa Yuwe), y sus áreas de aplicación.<hr/>Resumo A identificação de partes do discurso (Part-of-Speech Tagging, POST) é uma tarefa complexa nas aplicações de processamento de linguagem natural. Tem sido abordada desde enfoques baseados em informação estatística e regras, fazendo uso de distintos métodos e, ultimamente, destacam-se os algoritmos metaheurísticos obtendo bons resultados. Por isso, envolvem-se nesta pesquisa para assignar a melhor sequência de etiquetas (papéis) para as palavras de uma oração, baseando-se em informação estatística. Este processo desenvolveu-se em 2 ciclos, onde cada ciclo teve 4 fases para a adaptação ao problema de etiquetado nos algoritmos metaheurísticos Particle Swarm Optimization, Jaya, Random-Restart Hill Climbing, e um algoritmo mimético baseado em Global-Best Harmony Search como otimizador global, e em Hill Climbing como otimizador local. Realizaram-se experimentos preliminares (utilizando validação cruzada), para ajustar os parâmetros de cada algoritmo e depois executá-los sobre os datasets completos dos corpus etiquetados IULA (castelhano), Brown (inglês) e Nasa Yuwe (Nasa). Os resultados obtidos pelos etiquetadores propostos compararam-se mediante as provas estatísticas não paramétricas de Friedman e Wilcoxon, ratificando que o mimético proposto, GBHS Tagger, obtém melhores resultados de precisão. Os etiquetadores propostos convertem-se em um aporte muito importante para o POST, tanto para línguas tradicionais (Inglês e Castelhano), não tradicionais (Nasa Yuwe), e suas áreas de aplicação. <![CDATA[SAM: modelo híbrido preliminar para apoiar a transformação ágil em grande escala nas indústrias de software]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100039&lng=pt&nrm=iso&tlng=pt Resumen Los enfoques ágiles escalados se han convertido en una alternativa que permite sincronizar las actividades e interacciones entre equipos grandes de desarrollo. Sin embargo, éstos no describen los aspectos fundamentales para transformar/evaluar el enfoque actual de una organización. Este artículo presenta la estrategia de armonización utilizada para obtener un modelo híbrido preliminar, denominado SAM, para apoyar la transformación ágil a gran escala en industrias de software. Este modelo ha sido obtenido a partir de la homogeneización, comparación e integración de las prácticas en común de modelos escalados como SAFe, LeSS, Nexus y DAD. El modelo híbrido obtenido describe los atributos fundamentales para tener en cuenta para empezar la transformación o evaluar un enfoque escalado, para esto, establece y describe 18 prácticas documentadas que indican que tener en cuenta para escalar/evaluar un enfoque a gran escala utilizado por una empresa de software. Con los resultados obtenidos, se puede observar que SAFe, LeSS, Nexus y DAD tiene aspectos en común, y que ha sido posible unificarlos en SAM; por lo tanto, la estrategia de armonización presentada y el modelo propuesto podrían ser de gran utilidad para profesionales, consultores y empresas que intentan transformar/evaluar sus enfoques.<hr/>Abstract Agile scaled approaches have become an alternative to synchronize activities and interactions between large development teams. However, these do not describe the fundamental aspects to transform/evaluate the current approach of an organization. This paper presents the harmonization strategy used to obtain a preliminary hybrid model, called SAM, to support the agile transformation on a large scale in software industries. This model has been obtained from the homogenization, comparison and integration of the common practices of scaled models like SAFe, LeSS, Nexus and DAD. The hybrid model obtained describes the fundamental attributes to take into account to start the transformation or evaluate a scaled approach. In order to do this, it establishes and describes 18 documented practices that indicate what to take into account to scale/evaluate a large-scale approach used by a software company. With the obtained results, it can be seen that SAFe, LeSS, Nexus and DAD have aspects in common, and that it has been possible to unify them in SAM; therefore, the harmonization strategy presented and the proposed model could be very useful for professionals, consultants and companies trying to transform/evaluate their approaches.<hr/>Resumo Os enfoques ágeis escalados têm se convertido em uma alternativa que permite sincronizar as atividades e interações entre equipes grandes de desenvolvimento. Porém, estes não descrevem os aspectos fundamentais para transformar/avaliar o enfoque atual de uma organização. Este artigo apresenta a estratégia de harmonização utilizada para obter um modelo híbrido preliminar, denominado SAM, para apoiar a transformação ágil em grande escala nas indústrias de software. Este modelo tem sido obtido a partir da homogeneização, comparação e integração das práticas em comum de modelos escalados como SAFe, LeSS, Nexus e DAD. O modelo híbrido obtido descreve os atributos fundamentais para ter em conta para começar a transformação ou avaliar um enfoque escalado, para isto, estabelece e descreve 18 práticas documentadas que indicam o que ter em conta para escalar/avaliar um enfoque em grande escala utilizado por uma empresa de software. Com os resultados obtidos, pode-se observar que SAFe, LeSS, Nexus e DAD têm aspectos em comum, e que tem sido possível unificá-los em SAM; portanto, a estratégia de harmonização apresentada e o modelo proposto poderiam ser de grande utilidade para profissionais, consultores e empresas que tentam transformar/avaliar seus enfoques. <![CDATA[Modelagem exploratória de desempenho e confiabilidade de software em middleware orientado a mensagens]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100040&lng=pt&nrm=iso&tlng=pt Resumen El rendimiento es un importante atributo de calidad de un sistema de software. La Ingeniería de rendimiento del software comprende las actividades de análisis, diseño, construcción, medición y validación, que atienden los requerimientos de rendimiento a lo largo del proceso de desarrollo de software. En los sistemas de software que utilizan comunicación basada en mensajes, el rendimiento depende en gran medida del middleware orientado a mensajes (Message-Oriented Middleware – MOM). Los arquitectos de software necesitan considerar su organización, configuración y uso para predecir el comportamiento de un sistema que use tal plataforma. La inclusión de un MOM en una arquitectura de software requiere conocer el impacto de la mensajería y de la infraestructura utilizada. Omitir la influencia del MOM llevaría a la generación de predicciones erróneas. En este artículo se explora tal influencia, mediante el modelado y la simulación basados en componentes, utilizando el enfoque Palladio Component Model – PCM. En particular, una aplicación modelada en PCM fue adaptada para incluir comunicación basada en mensajes. Las simulaciones sobre el modelo, mediciones sistemáticas y pruebas de carga sobre la aplicación permitieron determinar cómo cambios introducidos en el modelo influyen en las predicciones del comportamiento de la aplicación en cuanto a rendimiento y confiabilidad. Fue posible identificar un cuello de botella que impacta negativamente el rendimiento y la confiabilidad del sistema original. La introducción de MOM mejoró la confiabilidad del sistema, a expensas del rendimiento. La simulación del rendimiento basado en componentes reveló diferencias significativas respecto de los experimentos basados en pruebas de carga y mediciones.<hr/>Abstract Performance is an important quality attribute in a software system. Software Performance Engineering comprises analysis, design, construction, measurement and validation concerning performance requirements during software development processes. Performance in software systems using message-based communication depends mostly on the Message-Oriented Middleware (MOM). Software architects need to consider MOM’s organization, configuration and usage details to get meaningful predictions about the behavior of a software system that uses such platform. When including MOM in software architecture, it is required to foresee the impact of messaging and its underlying infrastructure. Software architects may omit the MOM influence, which could lead to wrong predictions. In this article, we explore MOM’s influence through the Palladio Component Model – PCM, a component-based modeling and simulation approach. An application previously modeled with PCM was adapted to include message-oriented communication. Simulations over the model, systematic measurements, and load testing on the adapted application were performed, in order to determine how the changes in the model influenced the prediction of the application’s behavior on performance and reliability. A bottleneck that impacts performance and reliability of the original system was identified. Introducing MOM improved the system’s reliability but harmed its performance. Component-based performance simulation revealed significant differences with measurements obtained during the load testing experiments.<hr/>Resumo O desempenho é um importante atributo de qualidade de um sistema de software. A engenharia de desempenho de software compreende as atividades de análise, projeto, construção, medição e validação, que atendem aos requisitos de desempenho em todo o processo de desenvolvimento de software. Em sistemas de software que usam comunicação baseada em mensagens, o desempenho é altamente dependente do Message-Oriented Middleware (MOM). Os arquitetos de software precisam considerar sua organização, configuração e uso para prever o comportamento de um sistema usando essa plataforma. A inclusão de um MOM em uma arquitetura de software requer o conhecimento do impacto das mensagens e da infraestrutura usada. Omitir a influência do MOM levaria à geração de previsões erradas. Este artigo explora essa influência, por meio de modelagem e simulação baseada em componentes, utilizando a abordagem Palladio Component Model - PCM. Em particular, um aplicativo modelado em PCM foi adaptado para incluir comunicação baseada em mensagens. As simulações no modelo, medições sistemáticas e testes de carga na aplicação permitiram determinar como as alterações introduzidas no modelo influenciam nas previsões do comportamento da aplicação em termos de desempenho e fiabilidade. Foi possível identificar um gargalo que impacta negativamente o desempenho e a confiabilidade do sistema original. A introdução do MOM melhorou a confiabilidade do sistema, em detrimento do desempenho. A simulação de desempenho baseada em componentes revelou diferenças significativas de experimentos baseados em testes e medições de carga. <![CDATA[SOPHIA: Sistema para aquisição, transmissão e análise inteligente de imagens oftálmicas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100041&lng=pt&nrm=iso&tlng=pt Abstract Ocular diseases are one of the main causes of irreversible disability in people in productive age. In 2020, approximately 18% of the worldwide population was estimated to suffer of diabetic retinopathy and diabetic macular edema, but, unfortunately, only half of these people were correctly diagnosed. On the other hand, in Colombia, the diabetic population (8% of the country’s total population) presents or has presented some ocular complication that has led to other associated costs and, in some cases, has caused vision limitation or blindness. Eye fundus images are the fastest and most economical source of ocular information that can provide a full clinical assessment of the retinal condition of patients. However, the number of ophthalmologists is insufficient and the clinical settings, as well as the attention of these experts, are limited to urban areas. Also, the analysis of said images by professionals requires extensive training, and even for experienced ones, it is a cumbersome and error-prone process. Deep learning methods have marked important breakthroughs in medical imaging due to outstanding performance in segmentation, detection, and disease classification tasks. This article presents SOPHIA, a deep learning-based system for ophthalmic image acquisition, transmission, intelligent analysis, and clinical decision support for the diagnosis of ocular diseases. The system is under active development in a project that brings together healthcare provider institutions, ophthalmology specialists, and computer scientists. Finally, the preliminary results in the automatic analysis of ocular images using deep learning are presented, as well as future work necessary for the implementation and validation of the system in Colombia.<hr/>Resumen Las enfermedades oculares son una de las principales causas de incapacidad irreversible en personas en edad productiva. En 2020, la población mundial con retinopatía diabética y edema macular diabético está estimada como el 18% de la población mundial, aproximadamente, desafortunadamente, solo la mitad de estas personas fueron diagnosticadas correctamente. Por otro lado, en Colombia, la población diabética (8% de la población total del país) presenta o ha presentado alguna complicación ocular que ha llevado a otros costos asociados y, en algunos casos, ha provocado limitación de la visión o ceguera. Las imágenes de fondo de ojo son la fuente de información ocular más rápida y económica que puede proveer una valoración clínica del estado de la retina de los pacientes. Sin embargo, el número de oftalmólogos es insuficiente, la atención de estos expertos está limitada a zonas urbanas, y el análisis de dichas imágenes por parte de profesionales requiere una amplia formación; incluso para los más experimentados, es un proceso engorroso y propenso a errores. Los métodos de aprendizaje profundo han marcado avances importantes en imágenes médicas debido al desempeño sobresaliente en tareas de segmentación, detección y clasificación de enfermedades. Este artículo presenta SOPHIA, un sistema basado en el aprendizaje profundo para la adquisición, transmisión, análisis inteligente y soporte de decisiones clínicas para el diagnóstico de enfermedades oculares. El sistema se encuentra en desarrollo activo en un proyecto que reúne a instituciones proveedoras de salud, especialistas en oftalmología e informáticos. Finalmente, los resultados preliminares en el análisis automático de imágenes oculares utilizando el aprendizaje profundo son presentados, y se discute el trabajo futuro necesario para la implementación y validación del sistema en Colombia.<hr/>Resumo As enfermidades oculares são uma das principais causas de incapacidade irreversível em pessoas em idade produtiva. Em 2020, a população mundial com retinopatia diabética e edema macular diabético está estimada como 18% da população mundial, aproximadamente, desafortunadamente, só a metade destas pessoas foram diagnosticadas corretamente. Por outro lado, na Colômbia, a população diabética (8% da população total do país) apresenta ou já apresentou alguma complicação ocular que tem levado a outros custos associados e, em alguns casos, tem provocado limitação da visão ou cegueira. As imagens de fundo de olho são a fonte de informação ocular mais rápida e econômica que pode prover uma valoração clínica do estado da retina dos pacientes. Porém, o número de oftalmologistas é insuficiente, a atenção destes expertos está limitada a zonas urbanas, e a análise de tais imagens por parte de profissionais requer uma ampla formação; incluso para os mais experimentados, é um processo complexo e propenso a erros. Os métodos de aprendizagem profunda têm marcado avanços importantes em imagens médicas devido ao desempenho sobressaliente em tarefas de segmentação, detecção e classificação de enfermidades. Este artigo apresenta SOPHIA, um sistema baseado na aprendizagem profunda para a aquisição, transmissão, análise inteligente e suporte de decisões clínicas para o diagnóstico de enfermidades oculares. O sistema encontra-se em desenvolvimento ativo em um projeto que reúne a instituições provedoras de saúde, especialistas em oftalmologia e informáticos. Finalmente, os resultados preliminares na análise automática de imagens oculares utilizando a aprendizagem profunda são apresentados, e discute-se o trabalho futuro necessário para a implementação e validação do sistema na Colômbia. <![CDATA[Aprendizagem de programação e emoções epistêmicas: uma análise com perspectiva de gênero]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100042&lng=pt&nrm=iso&tlng=pt Abstract Programming courses often turn into courses with high percentage of desertion and, sometimes, result in a factor that drives students to abandon their careers, even when they are subjects highly relevant in the training of engineers in the areas of computer science, IT, and related careers. These courses demand high cognitive processes, which generate several emotions learning-related that, when taken into account and evaluated, could be used in favor of learning. Programming courses generate negative emotions in female students in a higher proportion than men, which may even lead them to abandon the career, widening the gender gap. In recent years, there has been a growing interest in the role of emotions in academic environments at university level, as well as for knowing the reason for the low participation of women, despite the importance of their role and skills, in computing areas. However, the interest in analyzing the emotions that emerge from students as they learn to program is quite recent. There is not an important number of studies around the emotions of women while they learn to program. The objective of this study is to analyze the behavior -at an emotional level- of students towards different teaching activities, establishing gender level comparisons, and considering the incorporation of elements of collaboration and gamification to identify differences in the emotions originated by these activities.<hr/>Resumen Los cursos de programación se convierten, de manera recurrente, en cursos de alto porcentaje de deserción y, en ocasiones, resultan en un factor que impulsa a los estudiantes a abandonar sus carreras, aun cuando son materias de alta relevancia en la formación de ingenieros en áreas de computación, informática y carreras afines. Estos cursos son, por naturaleza, demandantes de altos procesos cognitivos, por esta razón, generan una variedad de emociones que, tenidas en cuenta y evaluadas, podrían usarse a favor del aprendizaje. Los cursos de programación generan emociones negativas en mayor proporción en estudiantes mujeres que en hombres, incluso, las conducen a abandonar la carrera, lo que hace más amplia la brecha de género. En los últimos años, ha habido un creciente interés en el papel de las emociones en los entornos académicos a nivel universitario; además, se busca conocer la razón de la baja participación de las mujeres (a pesar de la importancia de su rol y habilidades) en áreas de computación. Sin embargo, el interés en analizar las emociones que emergen de los estudiantes mientras aprenden a programar es bastante reciente. No se cuenta con un número importante de estudios respecto a las emociones de las mujeres mientras aprenden a programar. El objetivo de este estudio es analizar el comportamiento -a nivel emocional- de los estudiantes, a partir de diferentes actividades de enseñanza, estableciendo comparaciones a nivel de género, y considerando la incorporación de elementos de colaboración y gamificación para encontrar diferencias en las emociones generadas por estas actividades.<hr/>Resumo Os cursos de programação tornam-se, de forma recorrente, cursos com alto índice de evasão e, por vezes, resultam em um fator que leva os alunos ao abandono da carreira, mesmo quando são temas de grande relevância na formação de engenheiros. áreas de computação, informática e carreiras relacionadas. Estes cursos são, por natureza, exigentes de elevados processos cognitivos, por isso geram uma variedade de emoções que, tidas em consideração e avaliadas, podem ser utilizadas a favor da aprendizagem. Os cursos de programação geram emoções negativas em maior proporção nas alunas do que nos homens, podendo inclusive levá-las ao abandono do curso, o que amplia a lacuna de gênero. Nos últimos anos, tem havido um interesse crescente pelo papel das emoções em ambientes acadêmicos de nível universitário; Além disso, busca conhecer o motivo da baixa participação das mulheres (apesar da importância de seu papel e competências) nas áreas de informática. No entanto, o interesse em analisar as emoções que emergem dos alunos ao aprender a programar é bastante recente. Não há um número significativo de estudos sobre as emoções das mulheres ao aprender a programar. O objetivo deste estudo é analisar o comportamento -a nível emocional- dos alunos, a partir de diferentes atividades de ensino, estabelecendo comparações a nível de gênero, e considerando a incorporação de elementos de colaboração e gamificação para encontrar diferenças nas emoções geradas para essas atividades. <![CDATA[Numerical Study of a Helical Heat Exchanger for Wort Cooling in the Artisanal Beer Production Process]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100043&lng=pt&nrm=iso&tlng=pt Abstract The objective of the present work is to study the behavior of a helical tube and shell heat exchanger, for the cooling of the wort in the process of making craft beer with cold water, through the methodology of computational fluid dynamics (CFD) by finite volume models for heat exchanger modeling. This by using the ANSYS Fluent software, which allows to understand the behavior of the fluid through equations that describe their movement and behavior, using numerical methods and computational techniques. In the mesh convergence, two methods were used, orthogonality and obliquity, with which it was confirmed that the meshing is ideal in the simulations that were carried out. For the simulation, the k-epsilon turbulence model and the energy model were used. Through various simulations, it was obtained that by varying the mass flow, better results are reducing the outlet temperature, with a variation of 15.16 °C, while varying the inlet temperature of the water, there is just a variation from 2.71 °C to 0.01 °C. Therefore, a significant improvement in the performance of the heat exchanger was found. In the same way, it was confirmed that the number of spikes in the heat exchanger is adequate, since the outlet temperature would not be reached with less spikes.<hr/>Resumen El presente trabajo tiene como objetivo estudiar el comportamiento de un intercambiador de calor de tubo helicoidal y coraza, para el enfriamiento del mosto en el proceso de elaboración de cerveza artesanal con agua fría, mediante la metodología de dinámica de fluidos computacional (CFD) por volúmenes finitos para el modelado del intercambiador de calor. Esto utilizando el software Fluent de ANSYS, mismo que nos permite comprender el fluido a través de ecuaciones que describen su movimiento y su comportamiento, mediante métodos numéricos y técnicas computacionales. En la convergencia de malla se manejaron dos métodos, ortogonalidad y oblicuidad, en los que se corroboró que el mallado es ideal en las simulaciones que se realizaron. Para la simulación se empleó el modelo de turbulencia k-épsilon y el modelo de energía. Por medio de varias simulaciones se obtuvo que, mediante la variación del flujo másico del mosto, se obtienen mejores resultados en la reducción de temperatura de salida, donde existe una variación de 15.16 °C. Por otro lado, variando la temperatura de entrada del agua, existe apenas una variación de 2.71 °C a 0.01 °C. Por lo tanto, se encontró una mejora significativa en el funcionamiento del intercambiador de calor. De la misma forma, se confirmó que el número de espigas en el intercambiador de calor es el adecuado, ya que con menos no se alcanzaría la temperatura de salida. <![CDATA[Application of Micro-Raman Spectroscopy for the Quantitative Analysis of Vitrinite Reflectance in Medium and High Rank Colombian Coals]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100044&lng=pt&nrm=iso&tlng=pt Abstract The structural changes and the degree of maturity of three Colombian coals from the Santander and Antioquia provinces were studied using a simple and fast curve fitting method of the RBS parameters (the distance between band G and band D), FWHM - G (total width at half the maximum of the G band) and AR (area of the Raman spectrum), obtained by deconvolution and band resolution of the Micro-Raman spectra. The results were compared by morphological and chemical analysis using a SEM scanning electron microscope coupled with a solid state X - ray EDS detector. A percentage of vitrinite reflectance (% Ro) of 4.3 %, 3.8 % and 0.07 % was obtained, a percentage of carbon by EDS analysis of 91.47 %, 87.78 %, 73.4 %, a morphological description by SEM analysis presenting smooth, rough surfaces and rough-lumpy and pore size between 0.7 µm - 0.8 µm, 1.3 µm - 1.5 µm and 0.2 µm - 0.7 µm for the anthracite, semi-anthracite and bituminous samples, respectively. The results showed that based on this method, it was possible to obtain a model that allows to rapidly analyze and characterize the coal. The results compare very well to those of Colombian coals normalized by other methods to improve the precision of the measurement. The modified method, however, did not offer an appropriate fit for the lower range coal and produced extremely low reflectance values. This effect is possibly related with the molecular structure of organic matter in coal or the presence of fluorescence interference.<hr/>Resumen Los cambios estructurales y el grado de madurez de tres carbones colombianos de las provincias de Santander y Antioquia se estudiaron utilizando un método de ajuste de curva simple y rápido de los parámetros RBS (la distancia entre la banda G y la banda D), FWHM-G (ancho total en la mitad del máximo de la banda G) y AR (área del espectro Raman), obtenido por deconvolución y resolución de banda de los espectros Micro-Raman. Los resultados fueron comparados mediante análisis morfológicos y químicos utilizando un microscopio electrónico de barrido SEM acoplado con un detector EDS de rayos X de estado sólido. Se obtuvo un porcentaje de reflectancia de vitrinita (%Ro) de 4.3 %, 3.8 % y 0.07 %, un porcentaje de carbono por análisis EDS de 91.47 %, 87.78 %, 73.4 %, una descripción morfológica por análisis SEM presentando superficies lisa, rugosa y rugosa-grumosa y tamaño de poro entre 0.7 µm - 0.8 µm, 1.3 µm - 1.5µm y 0.2 µm - 0.7 µm para las muestras de tipo antracita, semi-antracita y bituminoso, respectivamente. Los resultados mostraron que, con base en este método, fue posible obtener un modelo que permite analizar y caracterizar rápidamente el carbón. Los resultados se comparan muy bien con los de los carbones colombianos normalizados por otros métodos para mejorar la precisión de la medición. Sin embargo, el método modificado no ofreció un ajuste apropiado para el carbón de rango inferior y produjo valores de reflectancia extremadamente bajos. Este efecto posiblemente esté relacionado con la estructura molecular de la materia orgánica en el carbón o la presencia de interferencia de fluorescencia.<hr/>Resumo As mudanças estruturais e o grau de maturidade de três carvões colombianos das províncias de Santander e Antioquia foram estudados usando um método de ajuste de curva simples e rápido dos parâmetros RBS (a distância entre a banda G e a banda D), FWHM- G (largura total na metade do máximo da banda G) e AR (área do espectro Raman), obtidos por deconvolução e resolução de banda dos espectros Micro-Raman. Os resultados foram comparados por análises morfológicas e químicas em um microscópio eletrônico de varredura em MEV acoplado a um detector de EDS de raios-X de estado sólido. Uma porcentagem de refletância de vitrinita (% Ro) de 4.3 %, 3.8 % e 0.07 % foi obtida, uma porcentagem de carbono por análise EDS de 91.47 %, 87.78 %, 73.4 %, uma descrição morfológica por análise MEV apresentando superfícies lisas e rugosas e rugosidade e tamanho de poro entre 0.7 µm – 0.8 µm, 1.3 µm – 1.5 µm e 0.2 µm – 0.7 µm para as amostras de antracita, semiantracita e betuminosa, respectivamente. Os resultados mostraram que, com base neste método, foi possível obter um modelo que permite analisar e caracterizar rapidamente o carvão. Os resultados se comparam muito bem aos de carvões colombianos normalizados por outros métodos para melhorar a precisão da medição. No entanto, o método modificado não forneceu um ajuste apropriado para o carbono de faixa inferior e produziu valores de refletância extremamente baixos. Este efeito está possivelmente relacionado à estrutura molecular da matéria orgânica do carvão ou à presença de interferência de fluorescência. <![CDATA[Use of Augmented Reality, Gamification and M-learning]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292020000100045&lng=pt&nrm=iso&tlng=pt Resumen La realidad aumentada, la gamificación y m-learning ocupan hoy en día un lugar importante en la educación, dadas las ventajas que ha supuesto el uso de las tecnologías móviles, de manera independiente o en combinación con otros escenarios tecnológicos y los diferentes dispositivos que inciden en la enseñanza y el aprendizaje de las disciplinas o que sirven de puente para mejoras diversos procesos mediados por las TIC en la enseña y/o el aprendizaje. En este sentido el artículo que aquí se presenta, muestra un estudio analítico que se desarrolló bajo una metodología exploratoria, descriptiva de corte interpretativo de las categorías realidad aumentada, gamificación y m-learning, a partir de una caracterización en las bases de datos, se realizó una revisión de la literatura en las principales bases de datos tales como, Sciencedirect, Scopus y web Science, obteniendo 100 artículos de referencia. De esta manera se encontró que estas tres categorías determinadas como estrategias de enseñanza influyen significativamente en la motivación, el interés por el conocimiento, la retención y la comprensión de la información para el desarrollo de los procesos de enseñanza aprendizaje. El método utilizado permitió desarrollar la descripción del panorama acerca del uso la realidad aumentada, m-learning y gamificación en la enseñanza básica, media y superior.<hr/>Abstract Augmented reality, gamification and M-learning occupy an important place in education today, given the advantages that the use of mobile technologies has brought, independently or in combination with other technological scenarios and different devices that affect the teaching and learning of the different disciplines or that serve as a bridge for improvements to various processes mediated by ICT in teaching and / or learning. In this sense, the article presented here shows an analytical study that was developed under an exploratory, descriptive, interpretative methodology of the categories augmented reality, gamification, and m-learning, based on a characterization in the databases, carried out an exploratory review in the main databases such as ScienceDirect, Scopus and web Science, obtaining 100 reference articles. In this way, it was found that these three categories determined as teaching strategies significantly influence motivation, interest in knowledge, retention and understanding of information for the development of teaching-learning processes. The method used allowed to develop the description of the panorama or superficial knowledge about the use of augmented reality, m-learning, and gamification in basic, secondary, and higher education.