Scielo RSS <![CDATA[Ingeniería y competitividad]]> http://www.scielo.org.co/rss.php?pid=0123-303320220002&lang=en vol. 24 num. 2 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Exergy analysis of an industrial process for removal of polycyclic aromatic hydrocarbons through modified chitosan microbeads]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200001&lng=en&nrm=iso&tlng=en Abstract Due to the adverse effects that polycyclic aromatic hydrocarbons (PAHs) have on the ecosystems of Cartagena Bay; the synthesis of efficient removal processes is necessary. However, these emerging technologies must save water and energy. In this work, the energy performance was assessed for an industrial process for treating water contaminated with PAHs using a nanoparticle-modified chitosan bioadsorbent through an exergy analysis. The software aspen plus was used for simulation and calculation of the properties of streams for the analysis. In this assessment was found that the solvent recovery stage presents the highest irreversibilities (284,251.2344 MJ * h-1), unlike the other stages of the process that presented irreversibilities of the order of 102 (MJ * h-1); that is, due to the use of thermal energy in the separation equipment which it tends to be lost more easily when it is used to do useful work. In addition, a sensitivity analysis was conducted in adsorption and recovery stages, this shows that exergetic performance of the adsorption stage increases up to 99% but this improvement is not reflected in the overall performance of the process. While for the solvent extraction stage there is a strong influence of the flow and the heat supplied; this when observing an increase of 1% when reducing the heat flow. The overall yield of the process was 15.3% and shows that this process presents opportunities for improvement to be completely energy sustainable.<hr/>Resumen Debido a los efectos adversos que tienen los Hidrocarburos Aromáticos Policíclicos (HAPs) en los ecosistemas de la bahía de Cartagena; la síntesis de procesos de remoción eficientes se hace imperante, sin embargo, estas tecnologías emergentes deben conservar recursos como agua y energía. En este trabajo se valoró el desempeño energético a un proceso industrial de tratamiento de agua contaminada con HAP usando un bioadsorbente de quitosano modificado con nanopartículas mediante un análisis exergético. El proceso se simuló en el software Aspen Plus y se calcularon las propiedades de las corrientes para el análisis. Los resultados muestran que la etapa de recuperación de los solventes presenta las mayores irreversibilidades (284,251.2344 MJ*h-1), a diferencia de las otras etapas del proceso que presentaron irreversibilidades del orden de 102 (MJ*h-1), esto es debido al uso de energía térmica en el equipo de separación que tiende a perderse con más facilidad al usarse para realizar un trabajo útil. Además, se realizó un análisis de sensibilidad entra la etapa de adsorción y la de recuperación, obteniendo que el rendimiento exergético de la etapa de adsorción aumenta hasta un 99 %, pero no se refleja en el rendimiento global del proceso. Mientras para la etapa de extracción del solvente hay una fuerte influencia del flujo de entrada y del suministro de calor al observarse un aumento del 1% en el rendimiento al reducirse el calor suministrado. El rendimiento global del proceso fue de 15.3% e indica que este proceso tiene cabida de mejora para ser totalmente sostenible energéticamente. <![CDATA[Integrated supply chain security risk management with a focus on customer service]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200002&lng=en&nrm=iso&tlng=en Resumen La gestión de las cadenas de suministro, en la actualidad, una vez se supere la pandemia de coronavirus SARS-CoV-2 (COVID-19) tenderán a dar una importancia clave a la gestión de los riesgos. Va a implicar una mayor visibilidad de la cadena, y se necesitarán un mayor impulso de la colaboración, con el fin de tomar medidas consensuadas con diligencia. El objetivo de este artículo es ofrecer una aproximación teórica de la integración de la gestión de riesgos de la seguridad de las cadenas de suministros al sistema organizacional con un enfoque en el servicio al cliente como actividad clave de la logística. Para esto se utilizó la modelación teórica con un enfoque sistémico-estructural con consistencia lógica, adaptado a elementos de la logística y el control interno. Se establecen los nexos entre el sistema de seguridad de las cadenas de suministros y el sistema de control interno, enfocados en los flujos logísticos en una organización. Se determina que, en materia de cadenas de suministros, será efectivo gestionar los riesgos con un enfoque al servicio al cliente, a partir de la reducción de los cincos brechas existente en este entorno. Se concluye que la integración de la gestión de riesgos de la seguridad de las cadenas de suministros es una cualidad que busca la efectividad de estos sistemas en las organizaciones con un enfoque al servicio al cliente, integrado al control interno, se logrará así una mejor capacidad de respuesta inmediata a las demandas de las redes de suministros.<hr/>Abstract The management of supply chains in the new time that will open once the coronavirus SARS-CoV-2 (COVID-19) pandemic is overcome will tend to give a key importance to risk management. It will mean greater chain visibility, and greater collaboration momentum will be needed, in order to diligently take consensual action. The objective of this article is to provide a theoretical approach to the integration of supply chain security risk management to the organizational system with a focus on customer service as a key logistics activity. For this, theoretical modeling was used with a systemic, structural approach with logical consistency adapted to elements of logistics and internal control. Links are established between the supply chain security system and the internal control system, focused on logistics flows in an organization. It is determined that, in terms of supply chains, it will be effective to manage risks with a focus on customer service, from the reduction of the five existing gaps in this environment. It is concluded that the integration of supply chain security risk management is a quality that seeks the effectiveness of these systems in organizations with a focus on customer service, integrated with internal control, thus achieving a better capacity of immediate response to the demands of the supply networks. <![CDATA[Green and blue water footprint of organic sugarcane production in the central area of Cauca Valley]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200003&lng=en&nrm=iso&tlng=en Abstract The estimation of the green and blue water footprint in the production of organic sugarcane (Saccharum officinarum) was obtained for a planting area of 621.5 hectares in the Amaime river basin in Valle del Cauca, Colombia. The study represents the first approximation in the quantification of the theoretical amount of water required by growers to produce sugarcane under organic planting conditions, based on the methodological guidelines proposed in the Water Footprint Evaluation Manual of the authors Arjen and Hoekstra et al, (2011), and the computer program CROPWAT 8.0 of the Food and Agriculture Organization of the United Nations (FAO). The results for the green water footprint yielded an indicator of 117.07 m3/t, and 37.44 m3/t for the blue water footprint, for a total water footprint of 154.51 m3/t. The obtained data were analyzed comparatively with results from the literature about the traditional cultivation of sugarcane in Colombia, and international references for the same crop, so that the cultivation of organic sugarcane could present competitive advantages in environmental terms, associated with the use of water resources and context conditions. Moreover, it is necessary to deepen the analysis of the gray water footprint and analyses that involve cultural, social, scientific, economic, biophysical, and political aspects that lead to the integrality of the indicator.<hr/>Resumen La huella hídrica verde y azul en la producción de caña de azúcar (Saccharum officinarum) orgánica, se calculó para un área de siembra de 621.5 hectáreas, en la cuenca hidrográfica del rio Amaime, en el Valle del Cauca, en Colombia. El estudio representa la primera aproximación en la cuantificación de la cantidad de agua teórica requerida por cultivadores para producir caña de azúcar en condiciones de siembra orgánicas, a partir de los lineamientos metodológicos propuestos en el Manual de Evaluación de la Huella Hídrica de los autores Arjen y Hoekstra et al., (2011), y el programa computacional CROPWAT 8.0 de la Organización de las Naciones Unidas para la Alimentación (FAO). Los resultados para la huella hídrica verde arrojaron un indicador de 117.07 m3/t. y de 37.44 m3/t. para la huella hídrica azul, para una huella hídrica total de 154.51 m3/t. Los datos obtenidos se analizaron comparativamente con resultados de la literatura del cultivo tradicional de caña de azúcar en Colombia, y referentes internacionales para el mismo cultivo, por lo que el cultivo de caña orgánica podría presentar ventajas competitivas en términos ambientales, asociadas al uso de los recursos hídricos y condiciones de contexto, así como también se hace necesario profundizar en el análisis de la huella hídrica gris, y en análisis que involucren aspectos culturales, sociales, científicos, económicos, biofísicos y políticos que conduzcan a la integralidad del indicador. <![CDATA[Vitrification process to stabilize a smelting slag: preliminary study]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200004&lng=en&nrm=iso&tlng=en Abstract The aim of this study is to carry out a preliminary evaluation of vitrification process, which used as a method to stabilize a secondary lead smelting slag, in order to facilitate its handling or final disposal. Vitrification consists of processing a waste at high temperatures with vitrifying agents, to obtain a product chemically stabilized, allowing the inertization of a hazardous waste. In this study, slag and a sand residue used as vitrifying were characterized, through of X-ray Fluorescence (FRX), X-ray Diffraction (DRX) and Laser granulometry, in order to determine vitrification process parameters. Experimental batches were formulated for the vitrification process with slag, sand and sodium carbonate (Na2CO3), and were processed to 1000, 1100 and 1200 °C for 2 hours. Additionally, the TCLP (Toxicity Characteristic Leaching Procedure) technique was applied in order to determine the mobility of heavy metals contained in slag and vitrified products. As a result, it was found the vitrified at 1200ºC presented more homogeneous textures, partially amorphous, although some products presented crystalline phases. It can be concluded that the vitrification process was effective for the stabilization of the slag, with 60% slag and 40% sand, such as Pb, Se, As, because it presented a significant reduction in heavy metal leaching, complying with the standard.<hr/>Resumen Este estudio tiene como objetivo realizar una evaluación preliminar de un proceso de vitrificación, para estabilizar una escoria de fundición de plomo secundario, con el fin de facilitar su manejo y/o disposición final. El proceso de vitrificación consiste en someter un residuo a altas temperaturas con agentes vitrificantes, donde se obtiene un producto con alta estabilidad química, permitiendo inertizar en gran medida un residuo peligroso. Para este estudio, se caracterizó la escoria de fundición de plomo y un residuo de arena utilizado como vitrificante, a través de las técnicas de Fluorescencia de Rayos X (FRX), Difracción de Rayos X (DRX) y granulometría Láser, con el fin de determinar los parámetros del proceso de vitrificación. Seguidamente, se formularon los lotes experimentales con escoria, arena y carbonato de sodio (Na2CO3) y, se sometieron a temperaturas de 1000, 1100 y 1200 ºC durante 2 horas. Los productos obtenidos del proceso fueron analizados a través de las técnicas de Espectroscopía de Infrarrojo y de DRX. Adicionalmente, se aplicó la técnica de TCLP (Toxicity Characteristic Leaching Procedure) para determinar la movilidad de los metales pesados contenidos en la escoria y los productos vitrificados. Como resultado del proceso de vitrificación se encontró que a 1200 ºC los productos presentaron texturas más homogéneas, parcialmente amorfas, con algunas fases cristalinas. A partir de los resultados obtenidos se puede concluir, que el proceso de vitrificación fue efectivo utilizando una mezcla de 60% escoria y 40% de arena, debido a que presentó una reducción significativa en la lixiviación de metales pesados, tales como Pb, Se y As, cumpliendo la norma para TCLP. <![CDATA[Beyond Desorption Testing on Coal Bed Methane Exploration (CBM). Colombia Case]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200005&lng=en&nrm=iso&tlng=en Resumen Debido a la disminución de las reservas de gas natural y al elevado número de fallecidos por explosiones en minas de carbón, Colombia ha venido adelantando exploraciones preliminares del gas metano asociado al carbón (CBM). Hasta ahora, la exploración de CBM se ha centrado en el contenido de gas por tonelada de carbón a partir de sistemas de desorción utilizando canister, pero se han hecho pocos ensayos adicionales para determinar la saturación de gas en el carbón, el origen del gas, el porcentaje de metano y la permeabilidad de los carbones. El propósito de esta investigación es analizar la información reciente en el país sobre el uso de isotermas de adsorción, ensayos en isótopos de C13 y deuterio, cromatografía de gases y modelación de la permeabilidad. Los ensayos de isotermas de adsorción indican que el carbón está subsaturado, los resultados isotópicos muestran que el origen del gas sería biogénico principalmente, que los contenidos de metano estarían por debajo de 77 %, y que los valores de permeabilidad podrían ser altos. Los resultados también indican que se requieren más ensayos de isotermas, isótopos, cromatografía y permeabilidad, para aclarar con mayor precisión la saturación del metano, el origen del gas, el porcentaje de metano y la capacidad de flujo que tendrían los depósitos de CBM en Colombia, y de esta manera asegurar que haya gas suficiente para lograr la factibilidad económica en futuros proyectos. La exploración de CBM en el país ha sido superficial, se requiere investigar a profundidades superiores a 500 m, a prudente distancia de los trabajos mineros y lejos de áreas muy fracturadas, preferiblemente en estructuras como sinclinales con bajos buzamientos, y que se incluyan estudios de fracturas, diagénesis y modelado del yacimiento.<hr/>Abstract Due to the decrease of natural gas reserves and the high death toll from explosions in coal mines, Colombia has been carrying out preliminary explorations of coalbed methane (CBM). Until now, CBM exploration has focused on the gas content per ton of coal from canister desorption systems, but few additional tests have been done to determine coal gas saturation, gas origin, methane percentage and coalbeds permeability. The purpose of this research is to analyze recent information in the country on the use of adsorption isotherms, C13 and deuterium isotopes analyses, gas chromatography and permeability modeling. Adsorption isothermal test indicates that coalbeds are sub saturated, isotopic results show that gas origin is mainly biogenic, that methane content would be below 77%, and that permeability values could be high. These results also indicate that more isotherms, isotopes, chromatography and permeability tests are required to clarify with greater precision methane saturation, gas origin, methane percentage and flow capacity that CBM deposits would have in Colombia, and in this way ensure that there is enough gas to achieve economic feasibility in future projects. It is also concluded that the exploration has been superficial and that it is necessary to investigate the CBM at depths greater than 500 m, at a prudent distance from mining works and away from highly fractured areas; preferably in structures such as synclines with low deep structures, which should include studies of fractures, diagenesis, and reservoir modeling. <![CDATA[An approach to edge detection in medical imaging through histogram analysis and morphological gradient]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200006&lng=en&nrm=iso&tlng=en Abstract Edge detection takes importance in image processing systems for computer-aided diagnosis, where sharp changes in pixel intensity are analyzed to obtain fast and accurate information about regions of interest to the specialist. A method for feature enhancement and edge detection in medical images was developed using image processing by analyzing the pixel distribution histogram and morphological gradient operation. Images from the MINI MIAS dataset and the COVID-CT dataset were used. The method is based on image processing and is applied to mammography and chest CT images, where blur filtering steps are accompanied by morphological gradient filtering, in addition to obtaining the threshold for edge detection by analyzing the point of maximum pixel concentration according to the distribution histogram. The processing is presented in a graphical user interface developed in Python language. The method is validated by comparison with other edge detection techniques such as the Canny Algorithm, and with deep learning methods such as Holistically-Nested Edge Detection. The proposed method improves image quality in both mammograms and CT scans compared to other techniques. It also presents the best performance considering internal and external edge detection, as well as an average response time of 1.054 seconds and 2.63 % of Central Processing Unit requirement. The developed system is presented as a support tool for use in computer-aided diagnosis processes due to its high efficiency in edge detection.<hr/>Resumen La detección de bordes toma importancia en los sistemas de procesamiento de imágenes para el diagnóstico asistido por ordenador, donde se analizan los cambios bruscos en la intensidad de los píxeles para obtener información rápida y precisa sobre las regiones de interés para el especialista. Se desarrolló un método para el realce de caracteristicas y detección de bordes en imágenes médicas utilizando procesamiento de imágenes analizando el histograma de distribución de píxeles y la operación de gradiente morfológico. Se utilizaron imágenes del conjunto de datos MINI MIAS y del conjunto de datos COVID-CT. El método se basa en procesamiento de imágenes y se aplica a las imágenes de mamografía y TAC de tórax, donde los pasos de filtrado de desenfoque se acompañan de filtrado de gradiente morfológico, además de obtener el umbral para detectar el borde mediante el análisis del punto de máxima concentración de píxeles según el histograma de distribución. El procesamiento se presenta en una interfaz gráfica de usuario desarrollada en lenguaje Python. El método se valida mediante la comparación con otras técnicas de detección de bordes como el Algoritmo Canny, y con métodos de aprendizaje profundo como el Holistically-Nested Edge Detection. El método propuesto mejora la calidad de la imagen tanto en mamografías como en TAC en comparación con otras técnicas. También presenta el mejor rendimiento teniendo en cuenta la detección de bordes internos y externos, así como un tiempo medio de respuesta de 1.054 segundos y 2.63 % de requerimiento de la Unidad Central de Procesamiento. El sistema desarrollado se presenta como una herramienta de apoyo para su uso en procesos de diagnóstico asistido por ordenador debido a su alta eficiencia en la detección de bordes. <![CDATA[Energy consumption during surface texturing of AISI 1080 and AISI 52100 steels using CNC machining]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200007&lng=en&nrm=iso&tlng=en Resumen La texturización superficial ha sido empleada en diversas situaciones con el propósito de mejorar el desempeño tribológico de componentes mecánicos en contacto. En particular, la imposición de una textura determinística en superficies metálicas mediante procesos de mecanizado tiene unos costos energéticos asociados al consumo de potencia eléctrica, al desgaste de las herramientas de corte y a las pérdidas propias de la transformación de la energía eléctrica en energía mecánica, entre otras. Es, por lo tanto, pertinente cuantificar el consumo energético en el proceso de texturización con el propósito de evaluar la viabilidad de aumentar las áreas a texturizar, esto es, incrementar el volumen de material a remover de las piezas. En este trabajo se estudió el proceso de texturizado superficial con cinco patrones geométricos de un conjunto de pines fabricados en aceros AISI 1080 y AISI 52100, con énfasis en el análisis del consumo energético en el centro de mecanizado. Durante la texturización se registraron consumos de energía eléctrica entre 31.8 y 52.3 Wh por mm2 de área texturizada y a partir de los datos experimentales se establecieron correlaciones entre el consumo de energía, el material, el diseño geométrico de la textura y el área texturizada. Se encontró un aumento del 14% del consumo de energía al aumentar el área texturizada para el acero AISI 1080 en oposición al acero AISI 52100, en el cual disminuyó 20.8% el consumo energético al aumentar el área texturizada.<hr/>Abstract Surface texturing has been used in diverse applications to improve the tribological performance of mechanical components in contact. In particular, the imposition of a deterministic texture on metal surfaces through machining processes has energy costs associated with the consumption of electrical power, the wear of cutting tools and the inherent losses due to the transformation of electrical energy into mechanical energy, among others. Quantifying the energy consumption in texturing processes helps to evaluate the viability of increasing the areas to be textured, i.e., the total volume of material to be removed from the pieces. In this work, the surface texturing process of AISI 1080 and AISI 52100 steels with five geometric patterns was studied, with emphasis on the analysis of energy consumption in the machining center. Electrical energy consumptions between 31.8 and 52.3 Wh per mm2 of textured area were recorded and correlations between energy consumption, material, geometric design of the texture and textured area were established from the experimental data. An increase of 14% in energy consumption was found by rising the textured area for AISI 1080 steel, as opposed to AISI 52100 steel, which showed a reduction of energy consumption of 20.8 % when the textured area increased. <![CDATA[Implementation of an IoT system for climate risk monitoring]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200008&lng=en&nrm=iso&tlng=en Abstract The data collected in vulnerability and risk scenarios, in the context of prevention of natural disasters, are the basis for consolidating information that allows having the elements to mitigate the impact of the natural aspects that generate the risk; In this sense, when a system is structured where the data associated with variables that measure or monitor particular natural aspects are captured, stored and transformed, there is a need to secure these data to optimize the fidelity of the information. The results of the research presented are focused on the development of an Internet of Things (IoT) system for monitoring climate risk, through sensors connected remotely and whose data is processed for the generation of statistical reports. descriptive such as calculation of the mode, mean, median; minimum, and maximum that facilitate the understanding of the monitored variables.<hr/>Resumen Los datos que se recolectan en escenarios de vulnerabilidad y riesgo, en el contexto de prevención de desastres naturales, son la base para consolidar información que permite disponer de los elementos para mitigar el impacto de los aspectos naturales que generan el riesgo; en tal sentido, cuando se estructura un sistema donde se capturan, almacenan y transforman los datos asociados con variables que miden o monitorean aspectos naturales particulares, se presenta la necesidad de asegurar esos datos para optimizar la fidelidad de la información. Los resultados de la investigación que se presenta se centran en el desarrollo de un sistema de internet de las cosas (IoT, por sus siglas en inglés) para el monitoreo del riesgo climático, a través de sensores conectados de forma remota y cuyos datos se procesan para la generación de reportes estadísticos descriptivos como cálculo de la moda, media, mediana; mínimo y máximo que facilitan la comprensión de las variables monitoreadas. <![CDATA[Scoping coupled to the Conesa methodology for the environmental assessment of an advanced system of landfill leachate decontamination]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200009&lng=en&nrm=iso&tlng=en Abstract Landfill leachate is an effluent generated by the degradation of solid waste and the percolation of rainwater, which carries organic and inorganic substances, it is characterized as a dark-colored liquid with toxic, dangerous, pathogenic, and other compounds. It has been shown that the use of advanced oxidation processes coupled with biological treatments achieves effluents with low hazards. Despite benefits generate by these combinations, usually, the researcher’s goals focus just on the effluent, skipping the environmental impact generated in the construction, start-up, and maintenance of the treatments, resulting in a knowledge gap because there is not enough bibliography of works that develop combination between Scoping and Conesa methodology over coupled treatments used in leachate decontamination, in the environmental impact quantification. Considering the last, in the current manuscript was determined the impacts on the biotic, abiotic, and socioeconomic components, generated for coupling a photocatalytic system with a biological process. The Scoping technique was used as input of the environmental impact quantification through Conesa’s methodology. The main result was that environmental impacts produced by leachate leaks, waste generated, and energy consumed are considered as critical in the treatments, and futures researchers working in this field should control, prevent, or mitigate. Finally, the presence of positive impacts of the treatments such as the increase in the availability of water resources due to the effectiveness of the treatment carried out, and compliance with the Sustainable Development Goals is highlighted.<hr/>Resumen Los lixiviados de rellenos sanitarios son efluentes generados por la degradación de los residuos sólidos y la percolación del agua lluvia, caracterizados por ser un líquido de color oscuro con compuestos tóxicos, peligrosos, patogénicos, entre otras, que al ser descontaminados mediante procesos de oxidación avanzada acoplados a tratamientos biológicos logran efluentes con baja peligrosidad. A pesar de los beneficios otorgados por estas combinaciones, los investigadores usualmente se enfocan en analizar solo el efluente resultante, ignorando el impacto ambiental generado en la construcción, puesta en marcha y mantenimiento de los tratamientos, existiendo una brecha de conocimiento al no encontrarse suficiente bibliografía de trabajos que combinen el Scoping y la metodología de Conesa sobre tratamientos acoplados para la descontaminación de lixiviados, en la cuantificación del impacto ambiental. Atendiendo a lo mencionado, el presente manuscrito determinó los impactos sobre los componente biótico, abiótico y socioeconómico que genera acoplar un sistema fotocatalítico con un proceso biológico, para lo que se utilizó la técnica del Scoping como insumo de la cuantificación del impacto ambiental realizada a través de la metodología de Conesa, obteniendo como conclusión que impactos generados por fugas de lixiviado, así como los generados por los residuos y consumo de energía son considerados como críticos en los tratamientos y futuros investigadores que trabajen en el tema deben controlar, prevenir o mitigar. Finalmente, se destaca la presencia de impactos positivos de los tratamientos tales como el aumento de la disponibilidad del recurso hídrico gracias a la efectividad del tratamiento realizado y el cumplimiento de los Objetivos de Desarrollo Sostenible. <![CDATA[Supervised Learning for data cleaning in the coherence and completeness dimensions]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200010&lng=en&nrm=iso&tlng=en Abstract Information has become an asset for companies because most business strategic decisions are made based on data analysis; however, the best results are not always obtained in these analyses due to the low quality of information. It as several evaluation dimensions, making the task complex of achieving an adequate level of quality. One of the main activities before proceeding with any type of analysis is the pre-processing of the data. This activity is one of the most demanding in time; the expected levels of quality are not always obtained, nor are the evaluation dimensions with the most significant impact are covered. This work presents the use of machine learning as a tool to clean data in the dimension of completeness and coherence; its validation is done on a data set provided by a government entity in charge of protecting children’s rights at the national level. It starts from the selection of the information processing tools, the descriptive analysis of the data, the specific identification of the problems in which the machine learning techniques will be applied to improve the quality of the data, experimentation, and evaluation of the different models, and finally the implementation of the best performing model. Among the results of this work, there is an improvement in the completeness dimension, decreasing the null data by 4.9%. In the coherence dimension, 2.6% of the records were identified with contradictions, thus validating machine learning for data cleaning.<hr/>Resumen La información se ha convertido en un activo para las compañías debido a que la mayoría de las decisiones estratégicas de los negocios están basadas en el análisis de los datos, sin embargo, no siempre se obtienen los mejores resultados en estos análisis debido a la baja calidad de la información. La calidad de la información tiene varias dimensiones de evaluación, lo cual hace compleja la tarea de lograr un nivel adecuado de calidad. Una de las principales actividades antes de proceder con cualquier tipo de análisis es el preprocesamiento de los datos. Esta actividad es una de las más demandantes en tiempo y no siempre se obtienen los niveles esperados de calidad o se cubren las dimensiones de evaluación de mayor impacto. Este trabajo propone el uso de machine learning como herramienta para realizar limpieza de datos en la dimensión de completitud y coherencia, su validación se hace sobre un conjunto de datos suministrado por una entidad estatal encargada de la protección de los derechos de los niños a nivel nacional. El trabajo de investigación inicia con la selección de las herramientas de procesamiento la información, el análisis descriptivo de los datos, la identificación puntual de los problemas a los cuales se aplicarán las técnicas de machine learning para mejorar la calidad de los datos, experimentación y evaluación de los diferentes modelos y finalmente la implementación del modelo de mejor desempeño. Dentro de los resultados de este trabajo se tiene una mejora en la dimensión de completitud disminuyendo en un 4.9% los datos nulos y en la dimensión de coherencia un 2.6% de los registros con contradicciones, validando de esta forma el uso de machine learning para la limpieza de datos. <![CDATA[Study of energy consumption in Haas UMC-750 and Leadwell V-40iT® CNC machining centers]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200011&lng=en&nrm=iso&tlng=en Resumen Los centros de mecanizado demandan un alto consumo de energía afectando los costos de producción en las empresas que los emplean. Diferentes estudios relacionan múltiples factores de los centros de mecanizado con el consumo de energía, pero hasta el momento no se identifica con claridad cuáles variables o factores tienen una mayor incidencia en dicho consumo sin disminuir la calidad del acabado superficial de las piezas fabricadas. En el presente estudio se realizó un análisis descriptivo de la influencia que tiene la profundidad de corte, la velocidad de avance y la velocidad del husillo sobre el consumo de energía y la rugosidad en dos centros de mecanizado, Haas UMC-750 y el centro Leadwell V-40iT®. Se desarrolló una experimentación con un diseño factorial tomando como factores fijos el material base, la herramienta de corte y la ruta de mecanizado. Los resultados obtenidos evidenciaron que al aumentar la velocidad de avance el consumo de energía puede disminuir hasta en un 50% para los centros de mecanizado estudiados sin influir en la calidad superficial. Además, se evidenció la interacción entre los factores, identificando que la profundidad de corte posee una influencia moderada sobre la rugosidad o acabado superficial de las piezas. El consumo de energía varía para cada centro de mecanizado y el diseño experimental desarrollado ayudó a caracterizar la influencia de algunas variables de corte sobre el consumo de energía en cada centro de mecanizado.<hr/>Abstract Machining centers are complex equipment that demand high energy consumption affecting the production costs. Different studies have related some factors with the energy consumption; however, it is not completely clear which variables or factors have a greater incidence in this energy consumption of these machining centers without decreasing the quality of the finishing surfaces of the manufactured parts. In the present study, an analysis of the influence of cutting depth, forward velocity and spindle speed on the energy consumption and roughness of the surface finish was carried out in the Haas UMC-750 and the Leadwell V-40iT® machining centers. An experiment was developed with an nK factorial design keeping some variables as constants such as the base material, the cutting tool and the machining path. The results obtained showed that by increasing the feed rate, energy consumption can decrease by up to 50% for the machining centers studied without influencing the surface quality. Besides, the interaction between the factors was evidenced, identifying that the cutting depth has a moderate influence on the roughness or surface finish of the manufactured parts. The energy consumption varies for each machining center and the experimental design developed helped to characterize the influence of some cutting variables on the energy consumption of each machining center. <![CDATA[A comparative muscular assessment of the exoskeleton in a scaffold building operation, case study.]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200012&lng=en&nrm=iso&tlng=en Abstract The job in medium and high voltages lines for the Enel-Codensa Organization has generated discomfort reports in parts of the body, such as the shoulder and back also has been develop increase in absenteeism due to the development of occupational diseases such as lumbago and illnesses in the shoulder. The muscle evaluation of this case study was applied to a group of workers from the Colombian company, Enel-Codensa, which has an interest in improving the working conditions of its workers including exoskeletons in the development of its work. To achieve this, eight muscles were evaluated in which electromyography (EMG) was used in 20 volunteer participants, consisting of 12 electrical technicians and eight volunteers. The aim of the study was to determine whether a decrease in muscular effort occurred when the workers used the exoskeleton, to compare experienced and inexperienced subjects, and ultimately to analyze whether muscular activity varied with the use of an exoskeleton. As a result, muscular effort was lower in all the muscles when using the exoskeleton. However, the activity remained above 10% of muscular effort on average, which can generate muscular fatigue if such activity is maintained during an 8-hour day. The analysis showed that there is no difference when performing the activity with or without an exoskeleton except for the flexor carpi radialis muscle. Alternatively, when comparing the two groups, experts, and novices, it was found that the muscular activity of the experts was greater by 1%. As the study was performed, it was found that among this group, there was not an equality of measurements in six of the eight muscles. In conclusion, the scaffold erection test demonstrated muscular effort in the forearm and arm for both samples. To reduce this muscular effort, it is recommended to provide tools or redesign the task.<hr/>Resumen El trabajo de los lineros de media y alta tensión en la organización Enel-Codensa ha generado reportes de dolencias en partes del cuerpo, como lo son hombro y espalda y aumento de los ausentismos por desarrollo de enfermedades de laborales como los son los lumbagos y el manguito rotador. La evaluación muscular del caso de estudio se realizó a un grupo de trabajadores de la empresa colombiana Enel-Codensa, la cual tiene interés en mejorar las condiciones de trabajo de sus colaboradores, considerando la utilización de exosqueletos en el trabajo, con el fin de contrarrestar los elementos mencionados. Para lograrlo, se evaluaron ocho músculos. Se hizo uso de electromiografía (EMG) en 20 participantes voluntarios, doce linieros de alta tensión y ocho voluntarios. Lo anterior, con el fin de determinar si existe o no disminución en el esfuerzo muscular al usar el exoesqueleto; y comparar también si entre sujetos con experiencia y sin experiencia, la actividad muscular varia al usar el exoesqueleto. Como resultado se obtuvo que el esfuerzo muscular es menor en todos los músculos al usar el exoesqueleto. Sin embargo, la actividad se mantiene por encima del 10% de esfuerzo muscular en promedio, lo que puede generar fatiga muscular si se mantiene durante una jornada de ocho horas. El análisis estadístico de diferencia de medias dio como resultado que no existe diferencia entre realizar la actividad con o sin exoesqueleto excepto para el musculo Flexor Carpi Radial. Por otra parte, al realizar el comparativo entre los dos grupos, expertos y novatos, se encontró que la actividad muscular de los expertos es mayor en un 1%. Cuando se realizaron pruebas estadísticas de comparación de medias entre este grupo se no encontró igualdad de medidas en seis de los ocho músculos. En conclusión, para la prueba de armado de andamio, hay esfuerzo muscular en el antebrazo y brazo para ambas muestras. Para disminuir el esfuerzo muscular se recomienda brindar herramientas que contribuyan a una disminución de este o rediseñar la tarea. <![CDATA[Determination of the grain index and husk percentage of regional cocoa genotypes FSV41, FEAR5 and FLE2 and universal genotype CCN 51]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200013&lng=en&nrm=iso&tlng=en Resumen La determinación de las características físicas del cacao como el índice de grano y el porcentaje de testa o cascarilla es un parámetro de interés en la comercialización del cacao seco. Esta metodología esta soportada en la Norma técnica colombiana la NTC 1252, para determinar las características físicas en los genéticos regionales FSV41, FEAR5, FLE2 y el genotipo universal CCN51, cultivados en el municipio de Rionegro, departamento de Santander. Esta investigación se realizó con la cosecha principal del 2019 y el análisis de la información se valoró por triplicado para cada una de las muestras soportando el análisis estadístico y los resultados obtenidos. Los resultados presentas el genotipo FSV41 con características sobresalientes como el índice de grano grande y menor porcentaje de cascarilla o testa, además el genotipo FSV 41 presenta atributos finos de sabor y aroma, y es considerado un material genético promisorio de interés por sus atributos en la renovación de cultivos e implementación plantaciones de cacao por los aportes económicos y sociales en las zonas cultivadas.<hr/>Abstract The determination of the physical characteristics of cocoa such as the bean index and the percentage of husk is a parameter of interest in the commercialization of dry cocoa. This methodology is supported by the Colombian Technical Standard NTC 1252, to determine the physical characteristics in the regional genetics FSV41, FEAR5, FLE2 and the universal genotype CCN51, cultivated in the municipality of Rionegro, department of Santander. This research was conducted with the main harvest of 2019 and the analysis of the information was valued in triplicate for each of the samples supporting the statistical analysis and the results obtained. The results present the FSV41 genotype with outstanding characteristics such as the large grain index and lower percentage of husk, in addition, the FSV41 genotype has fine attributes of flavor and aroma and is considered a promising genetic material of interest for its attributes in crop renewal and implementation of cocoa plantations for the economic and social contributions in the cultivated areas. <![CDATA[Assessment of computing tools for photovoltaic system analysis]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200014&lng=en&nrm=iso&tlng=en Resumen En este artículo se presenta la comparación de algunas herramientas de simulación para sistemas fotovoltaicos. El análisis se realizó considerando cuatro criterios: histórico de citaciones, accesibilidad, amabilidad con el usuario y simulación. Cada uno de estos criterios incluyen aspectos a los cuales se les asignaron puntajes. Finalmente, se realizó la ponderación de los puntajes para definir la herramienta computacional con más ventajas. Los programas para simulación de sistemas fotovoltaicos con más ventajas para la simulación de sistemas fotovoltaicos son el PVSyst y el PV*SOL. Tanto su interfaz, como la información arrojada en la simulación, los hacen herramientas muy completas para el análisis de producción de energía de este tipo de sistemas. Los programas de simulación son necesarios para el análisis de la operación de sistemas fotovoltaicos. Entre los más utilizados se encuentran: PVSyst, PV*SOL, SAM y RETScreen. La evaluación de las herramientas permitió identificar que PV*SOL es el programa con más ventajas y fortalezas.<hr/>Abstract This paper presents a comparison of some simulation tools for photovoltaic systems. The analysis was made considering four criteria: historical citations, accessibility, user friendliness and simulation. Each criterion includes aspects which have a score assignation. Finally, a weighing was made to define the computational tool with more advantages. The simulation software with more advantages for photovoltaic system simulation are PVSyst and PV*SOL. Both its interface and the information given in the simulation, made them very complete tools for the analysis of the energy production in this kind of systems. Simulation software are needed for the analysis of the operation of photovoltaic systems. Among the most used are: PVSyst, PV*SOL, SAM and RETScreen. The evaluation of these tools allowed to identify that PV*SOL is the software with more advantages and strengths. <![CDATA[Estimation of Acceptable Cost Tolerance Limits in Uncertainty Environments Using Monte Carlo Simulation]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200015&lng=en&nrm=iso&tlng=en Resumen Debido a la incertidumbre existente en los procesos productivos, las organizaciones necesitan establecer en qué momento una variación en el costo con respecto a una estimación de referencia se considera aceptable y cuando se deben emprender acciones correctivas, preventivas o de mejora. Considerar valores tolerables genera la idea que el costo no es un parámetro determinístico, sino que puede oscilar en un rango definido, por lo que las estimaciones que pertenezcan a dicho rango se consideran normales y las que estén por fuera generan medidas de intervención por parte de los tomadores de decisiones. Este artículo presenta una metodología que permite establecer el intervalo de tolerancia. La metodología utiliza un modelo matricial de costeo basado en actividades que incorpora la simulación Monte Carlo para representar la variabilidad inherente en cada uno de los procesos. La metodología fue aplicada en un caso de estudio en el sector transporte obteniendo como resultado el rango de valores de control, el cual sirve como base para la toma de decisiones tácticas y operativas dentro de la organización.<hr/>Abstract Due to the uncertainty in production processes, organizations must establish when a variation in cost with respect to a reference estimate is considered acceptable and when corrective, preventive or improvement actions must be taken. Considering tolerable values generates the idea that the cost is not a deterministic parameter, but that it can oscillate in a defined range, so that the estimates that belong to said range are considered normal and those that are outside generate intervention measures by part of decision makers. This paper presents a methodology that allows establishing the tolerance interval. The methodology uses an activity-based costing matrix model that incorporates Monte Carlo simulation to represent the inherent variability in each of the processes. The methodology was applied in a case study in the transportation sector, obtaining as a result the range of control values, which serves as the basis for making tactical and operational decisions within the organization. <![CDATA[Software app development to determine optical constants in non-homogeneous semiconductor thin films]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200016&lng=en&nrm=iso&tlng=en Resumen En este trabajo se presenta el diseño y desarrollo de una aplicación de software útil en el estudio de las propiedades ópticas de materiales semiconductores, mediante el cual es posible conocer si las películas delgadas semiconductoras sintetizadas son adecuadas para la fabricación de dispositivos semiconductores. Utilizando el algoritmo desarrollado, basado en los métodos de Swanepoel, se logra estimar constantes ópticas de películas semiconductoras no homogéneas tales como: coeficiente de absorción (α), índice de refracción (n) y brecha de energía prohibida (Eg); además, se estima la variación del espesor en ellas. Esta aplicación tiene como insumo la información en las curvas de transmitancia espectral resultantes de procedimientos experimentales. Se encontró que la aplicación propuesta ofrece un alto grado de confiabilidad y que, por tanto, se puede usar para estudiar las propiedades de películas delgadas semiconductoras que se utilicen en la fabricación de dispositivos semiconductores en diversas aplicaciones, entre ellas las energías limpias y renovables como son las celdas solares.<hr/>Abstract This work introduces the design and development of a useful software app for studying the optical properties of semiconductor materials; thus, it is possible to know if the deposited non-homogeneous semiconductor thin films are suitable for the fabrication of semiconductor devices. Using the developed algorithm, which is based on Swanepoel's methods, it is possible to estimate optical constants of non-homogeneous semiconductor films such as: absorption coefficient (α), refractive index (n) and band gap (E g ). In addition, the variation of the thickness in them is estimated. The input information for this tool corresponds to the spectral transmittance curves from experimental procedures. The proposed tool was found to offer high accuracy and therefore it can be used to study the properties of semiconductor thin films used in semiconductor manufacturing in a variety of applications, including clean and renewable energies such as solar cells. <![CDATA[Removal of dyes brilliant blue and methyl violet from aqueous solution using cassava peel (<em>Manihot esculenta</em>) modified with phosphoric acid]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200017&lng=en&nrm=iso&tlng=en Resumen En este trabajo se evaluó la capacidad de la cáscara de yuca modificada con ácido fosfórico para remover violeta de metilo y azul brillante de soluciones acuosas. Se determinaron las mejores condiciones de temperatura (127 °C) y relación biomasa/H3PO4 (1:1) para la modificación de la cáscara de yuca, utilizando el método de índice de azul de metileno. Luego se evaluó la capacidad de adsorción de la cáscara de yuca en la remoción de los colorantes azul brillante y violeta de metilo, encontrando valores de porcentaje de remoción y capacidad máxima de adsorción de 16.1 % y 0.00207 mmol/g para el azul brillante y 97.95 % y 0.0249 mmol/g para el violeta de metilo, logrando el equilibrio en 285 y 330 minutos, respectivamente. Los datos de la cinética de adsorción de violeta de metilo fueron mejor modelados por la ecuación de pseudo segundo orden, mientras que la representación de los datos de adsorción de azul brillante se ajustó más al modelo de pseudo primer orden. Para estudiar el equilibrio de adsorción, los datos se ajustaron a los modelos de Langmuir, Freundlich y Temkin, encontrándose que el modelo de Freundlich es el que mejor se ajusta a los valores experimentales. Los valores de nf indican la favorabilidad en los procesos de adsorción de cada colorante. Por último, en el análisis termodinámico determinó que la adsorción de ambos colorantes se da de manera espontánea y además se ve favorecida con el aumento de la temperatura, evidenciando un proceso endotérmico.<hr/>Abstract In this paper, the ability of cassava peel modified with phosphoric acid to remove Methyl Violet and Brilliant Blue FCF from aqueous solutions was evaluated. The best temperature conditions (127 °C) and biomass/acid ratio (1:1) were determined for the modification of cassava peel, using the Methylene Blue Index method. Then, the adsorption capacity of the cassava peel selected in the removal of the Brilliant Blue and Methyl Violet dyes was evaluated, finding values ​​of percentage of removal and maximum adsorption capacity of 16.1% and 0.00207 mmol / g for Brilliant Blue, and 97.95% and 0.0249 mmol / g for Methyl Violet, achieving equilibrium in 285 and 330 minutes, respectively. The data of the adsorption kinetics of each of the dyes were adjusted to the pseudo-first order and pseudo-second order models: the adsorption of Violet of Methyl was better represented by the pseudo-second order model, whereas the adsorption data of Bright Blue was better fitted to the pseudo-first order model. To study the adsorption equilibrium, the data were adjusted to the Langmuir, Freundlich, and Tekim models, showing that the Freundlich model has the best fitting to the experimental values. nf values indicate the favorability in the adsorption processes for each dye. Finally, in the thermodynamic analysis it was determined that the adsorption of both dyes occurs spontaneously and is also favored with the increase in temperature, proving to be an endothermic process. <![CDATA[Simulation Model for the Evaluation of Environmental Policies Through the Characterization of Air Pollution in the City of Bogotá using System Dynamics]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200018&lng=en&nrm=iso&tlng=en Resumen La mala calidad del aire en las grandes ciudades como Bogotá, debido a fuentes de emisión fijas y móviles de material particulado, afectan negativamente a los sistemas sociales, económicos y ecológicos de la ciudad. El crecimiento de la población es una de las principales causas que influye en la contaminación atmosférica. Por lo que se considera necesario analizar las relaciones causa-efecto de la contaminación, sus fuentes y los efectos en la población. Por tal motivo, desarrollar un modelo usando herramientas informáticas como dinámica de sistemas, las cuales pueden evaluar diferentes escenarios de políticas ambiéntelas, ayudaran a reducir los niveles de contaminación y mejorar la calidad de vida de la población. La metodología utilizada fue de tipo cuasiexperimental con enfoque cuantitativo, dividido en cuatro etapas, recolección de información, planteamiento del diagrama causal, desarrollo del modelo de simulación y evaluación de escenarios, se usó como herramienta de simulación el software Vensim®. Como resultado se encontró que las fuentes fijas y móviles altamente contaminantes ocasionan un incremento descontrolado del PM10. También se encontró que las tasas de conversión anual a tecnologías limpias deben ser del 10% anual o superiores para lograr una reducción del 50% en los niveles de PM10, al mediano y largo plazo. Las principales conclusiones fue determinar que el uso de tecnologías de simulación como dinámica de sistemas, son muy útiles para formular políticas ambientales más eficaces. La simulación presentó la necesidad de que las políticas ambientales deben ser políticas estructurales de largo plazo que no varíen en función del cambio de gobierno.<hr/>Abstract Poor air quality in large cities such as Bogotá, due to fixed and mobile emission sources of particulate matter, negatively affects the social, economic and ecological systems of the city. Population growth is one of the main causes that influence air pollution. Therefore, it is considered necessary to analyze the cause-effect relationships of pollution, its sources and the effects on the population. For this reason, developing a model using computer tools such as system dynamics, which can evaluate different environmental policy scenarios, will help to reduce pollution levels and improve the life quality of the population. The methodology used was quasi-experimental with a quantitative approach, divided into four stages, gathering information, proposing the causal diagram, developing the simulation model and evaluating scenarios. Vensim® was the software used as the simulation tool. As a result, it was found that highly polluting stationary and mobile sources cause an uncontrolled increase in PM10. It was also found that annual conversion rates to clean technologies must be 10% per year or higher to achieve a 50% reduction in PM10 levels, in the medium and long term. The main conclusions were to determine that the use of simulation technologies such as system dynamics are very useful to formulate more effective environmental policies. The simulation presented the need for environmental policies to be long-term structural policies that do not vary depending on the change of government. <![CDATA[Comparative study of two pectinolytic enzymes in the liquefaction of copoazú pulp (Theobroma grandiflorum) and extraction of dietary fiber]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200019&lng=en&nrm=iso&tlng=en Resumen El copoazú (Theobroma grandiflorum) es un fruto amazónico con gran potencial económico, debido a su alto valor nutricional, siendo una fuente importante de ácido ascórbico y compuestos fénolicos. Su pulpa de alta viscosidad y acidez dificulta su procesamiento industrial. El presente estudio tiene como objetivo evaluar el efecto de la licuefacción enzimática con dos enzimas pectinolíticas comerciales (Rapidase® LIQ Plus y Rapidase® Citrus Cloudy) a diferentes condiciones de temperatura (15 a 45 ºC) y tiempo de incubación (2 a 5 h) sobre las características fisicoquímicas del jugo y las propiedades tecnológicas del residuo de copoazú, bajo un diseño de superficie de respuesta. Se obtuvo rendimientos del jugo de hasta 87.96 % con la enzima Rapidase® LIQ Plus a 15 °C y durante 2 h de incubación, mostrando el uso de enzimas hidrolíticas como una alternativa biotecnológica idónea para la adaptación fisicoquímica y reológica de la pulpa de copoazú, con potencial impacto positivos para su implementación en zonas apartadas, donde se produce el fruto, eliminando los problemas generados por la alta viscosidad de la pulpa. El residuo de copoazú tiene un alto contenido de fibra dietaria (42.48% en base húmeda). Además, presentó excelentes características como capacidad de hinchamiento (CH) (3.85 g de agua / g de materia seca) y capacidad de retención de agua (CRA) (3.94 g de agua/ g de materia seca). En consecuencia, el subproducto sólido procedente de la clarificación enzimática de pulpa de copoazú cuenta con características de calidad homologas a las registradas en aditivos comerciales de fibra utilizados por la industria.<hr/>Abstract Copoazú (Theobroma grandiflorum) is an Amazonian fruit with great economic potential, due to its high nutritional value, being an important source of ascorbic acid and phenolic compounds. Its pulp of high viscosity and acidity makes its industrial processing difficult. The present study aims to evaluate the effect of enzymatic liquefaction with two commercial pectinolytic enzymes (Rapidase® LIQ Plus and Rapidase® Citrus Cloudy) at different temperature conditions (15 to 45 ºC) and incubation time (2 to 5 h) on the Physicochemical characteristics of the juice and the technological properties of the copoazú residue, under a response surface design. Juice yields of up to 87.96% were obtained with the Rapidase® LIQ Plus enzyme at 15 ° C and during 2 h of incubation, showing the use of hydrolytic enzymes as an ideal biotechnological alternative for the physicochemical and rheological adaptation of the copoazu pulp, with potential positive impact for its implementation in remote areas, where the fruit is produced, eliminating the problems generated by the high viscosity of the pulp. The copoazú residue has a high content of dietary fiber (42.48% on a wet basis). In addition, it presented excellent characteristics such as swelling capacity (CH) (3.85 g of water / g of dry matter) and water retention capacity (CRA) (3.94 g of water / g of dry matter). Consequently, the solid by-product from the enzymatic clarification of copoazú pulp has quality characteristics similar to those registered in commercial fiber additives used by the industry. <![CDATA[Inferential statistics models to relate the rejections of an engine cold testing and the machining defects in camshaft assembly bores]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200020&lng=en&nrm=iso&tlng=en Abstract In the manufacturing industry, it is important to reduce machining deviations as soon as possible to avoid the cost associated with reworks. The definition of mathematical models that predict future failures in the diagnosis of combustion engines associated with errors in machining is a way that helps to save time and money in a process. This paper proposes the analysis and establishment of correlations between the deviations of the machining in cylinder heads and the rejections of an engine cold testing in an automotive manufacturing company. To determine the relationships, a sample of heads and engines was measured in two months, and statistical models were established using inferential statistics. It was possible to establish 77 statistical models that allow predicting which machining of the cylinder heads are contributing to the rejects and therefore adjust the corresponding tools. Due to a large amount of data from the results of the 77 models, this article shows only one model which is one of the most representatives. Using this statistical model it was possible to know which characteristic of the tool should be adjusted in addition it was also possible to know that the test limits for oil pressure have to be adjusted in the engine cold testing.<hr/>Resumen En la industria manufacturera es de gran importancia reducir las desviaciones de maquinado tan pronto como sea posible para evitar costos asociados con los retrabajos. La definición de modelos matemáticos que predicen futuras fallas en el diagnóstico de motores de combustión asociados con los errores en los maquinados es una manera que ayuda a ahorrar tiempo y dinero en el proceso. Este trabajo propone el análisis y establecimiento de correlaciones entre las desviaciones del maquinado en cabezas de cilindros y los rechazos de un banco de pruebas en frio en una empresa que produce automóviles. Para determinar las relaciones, se midió una muestra de cabezas y motores en un período de dos meses y mediante estadística inferencial se establecieron modelos estadísticos. Se logró establecer 77 modelos estadísticos que permiten predecir qué maquinados de las cabezas de cilindros están contribuyendo a los rechazos y por tanto ajustar las herramientas correspondientes. Debido a la gran cantidad de datos de los resultados de los 77 modelos, este artículo muestra solo un modelo el cual es uno de los más representativos. Utilizando este modelo estadístico fue posible saber cuál característica de la herramienta debe ser ajustada además también se encontró que los límites de prueba para la presión de aceite tienen que ser ajustados en el banco de pruebas en frío. <![CDATA[Information technologies and knowledge transfer in tourism SMEs in the Department of Caldas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200021&lng=en&nrm=iso&tlng=en Abstract The interest of this article is the presentation of the findings of the relationship found between knowledge transfer and information and communication technologies, of the SMEs of the tourism sector of the Department of Caldas. The study is based on the application of a knowledge management valuation model to 61 operating companies of the tourism sector in the Department of Caldas. Based on a qualitative research, with a descriptive approach (use of surveys), exploratory (use of observation and documentary review) and correlational (multivariate analysis). Regarding the use of ICT, it is a palpable fact, the progress of SMEs in the tourism sector of the Department of Caldas in the use of this resource as a basis for the sale of services, products and the transfer of knowledge inside and outside the companies, which can be seen in the different portals and mobile applications that these companies have. It is concluded that there is a positive and significant correlation between knowledge transfer and information and communication technologies. It is hoped that these results will lead to strategies that allow the improvement of these companies.<hr/>Resumen El interés del presente artículo es la presentación de los hallazgos de la relación encontrada entre la transferencia de conocimiento y las tecnologías de información y comunicaciones, de las pymes del sector turístico del Departamento de Caldas. El estudio parte de la aplicación de un modelo de valoración de gestión del conocimiento, a 61 compañías operadoras del sector turístico del Departamento de Caldas. Partiendo de una investigación cualitativa, con un enfoque descriptivo (uso de encuestas), exploratorio (uso de observación y revisión documenta) y correlacional (análisis multivariado). En cuanto al uso de TIC, es un hecho palpable, el avance de las pymes del sector turístico del Departamento de Caldas en el uso de este recurso como fundamento de la venta de servicios, productos y la transferencia de conocimiento al interior y exterior de las empresas, lo que se puede ver en los diferentes portales y aplicaciones móviles que tienen estas empresas. Se concluye que existe una positiva y significativa correlación entre la transferencia de conocimiento y las tecnologías de información y comunicaciones. Se espera con estos resultados se planteen estrategias que permitan el mejoramiento de estas compañías. <![CDATA[Mathematical model for the competitive interaction between cancer cells and the immune system with cancer therapy]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200022&lng=en&nrm=iso&tlng=en Resumen Se presenta un modelo matemático sencillo que consiste en un sistema de dos ecuaciones diferenciales ordinarias (EDOs), aplicables a la interacción entre células de cáncer, sistema inmune y una terapia fotodinámica basado en las observaciones previas del Grupo de investigación de Fisicoquímica de Bio y Nanomateriales de la Universidad del Valle (Basante et al., 2016, Basante, 2017) donde se asume un efecto de carácter exponencial. Se analizan las consecuencias del tratamiento en base al análisis de estabilidad del sistema dinámico, encontrando que es posible encontrar existen condiciones adecuadas para la eliminación del cáncer.<hr/>Abstract A simple mathematical model is presented that consists of a system of two ordinary differential equations (ODEs), applicable to the interaction between cancer cells, the immune system and a photodynamic therapy based on the previous observations of the Physicochemical Research Group of Bio and Nanomaterials of the Universidad del Valle (Basante et al., 2016, Basante, 2017) where an exponential effect is assumed. The consequences of the treatment are analyzed based on the stability analysis of the dynamic system, finding that it is possible to find adequate conditions for the elimination of cancer. <![CDATA[Architecture of an intelligent cybersecurity Framework based on Blockchain technology for IIoT]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200023&lng=en&nrm=iso&tlng=en Abstract For organizations today it is very important to have frameworks that can automate certain processes in a certain way that have additional costs for them, and it is that automation takes great importance when the processes are related to cybersecurity, since it is a critical issue that must be updated with the latest technological developments as new vulnerabilities are found over time. That is because, in this work an architecture of a cybersecurity framework based on emerging technologies is proposed that allows to automate the generation of rules and store the information of alerts generated by possible intrusions in a comprehensive way over time, all this making use of IoT devices that are securely connected and authenticated in a Blockchain that stores the entire list of rules and possible alerts generated by certain intrusions. In this way, the rules will be generated automatically by a Deep learning algorithm that is analyzing the traffic that the IoT device emits to the cloud making use of an intrusion detection systemIDS that is monitoring the traffic that passes through a certain network and saves it in a temporary on the device until it is sent to the cloud. Likewise, the architecture also proposes an application layer of which the users who can manage the IoT devices are part, as well as the configurations for their connection with the Blockchain and in the same way they can manage rules and monitoring of the traffic that is being receiving from the devices involved.<hr/>Resumen Para las organizaciones hoy en día es muy importante contar con frameworks que puedan automatizar determinados procesos que repercuten en gastos adicionales para estas mismas y es que la automatización toma mucha importancia cuando los procesos están relacionados con la ciberseguridad, dado que es un tema crítico y que debe estar actualizado con las últimas novedades tecnológicas ya que con el pasar del tiempo van encontrando nuevas vulnerabilidades. Por lo anterior, en este trabajo se propone una arquitectura de un framework ciberseguridad basado en tecnologías emergentes que permita automatizar la generación de reglas y almacenar la información de alertas generadas por posibles intrusiones de forma íntegra a través del tiempo, todo esto haciendo uso de dispositivos IoT que se encuentran conectados y autenticados de forma segura en una Blockchain que almacena todo el listado de reglas y las posibles alertas generadas por determinadas intrusiones. De este modo las reglas serán generadas automáticamente por un algoritmo de Deep learning que se encuentra analizando el tráfico que el dispositivo IoT emite hasta la nube haciendo uso de un IDS que está monitoreando el tráfico que pasa por una determina red y lo guarda de forma temporal en el dispositivo hasta que este es enviado hasta la nube. Así mismo, también la arquitectura propone una capa de aplicación de la cual hacen parte los usuarios que podrán administrar los dispositivos IoT, así como también las configuraciones para su conexión con la Blockchain y de igual forma se podrán gestionar reglas y monitoreo del tráfico que se está recibiendo por parte de los dispositivos involucrados. <![CDATA[An adaptable Intelligence Algorithm to a Cybersecurity Framework for IIOT]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200024&lng=en&nrm=iso&tlng=en Abstract The industrial internet of things (IIoT) has grown in recent years, which makes it possible to publicize recent technological innovations and be able to integrate them with each other, such as smart cities, among other applications such as health, education, transit and others, but at the same time there is a problem that is security, due to the fact that incidents related to IIoT have been registered against data networks, for this reason it is necessary to generate intelligent solutions in cybersecurity, which allow to give a satisfactory solution. The objective of this work was to propose an intelligence technique adaptable to a cybersecurity framework with the ability to solve cybersecurity problems in networks of IIoT devices, for the development of which the research-action methodology (I-A), which consists of merging theory with practice in such a way that the researcher can generate accurate conclusions about the practices carried out. In this sense, with this methodology it is intended to provide solutions to specific problems in a given situation. Based on the above, a systematic literature review of the different artificial intelligence techniques was carried out, to finally determine the most appropriate ones and proceed to carry out the respective validations until the appropriate one was selected. Where it was found that there is a great variety of intelligence techniques such as Deep Learning (Deep Learning), who obtained a very high score in the characterization that was carried out due to its great possibilities when integrating the algorithm into the field of cybersecurity, it was identified that they are very poorly characterized; however, in the initial research that was done, the result was how to work with this technology and how to adapt it to cybersecurity. There are different ways to analyze and secure data on the network, one of these is learning techniques, in this research several techniques were identified that with their respective algorithms provided the basis for adaptability with a framework related to IIoT technologies.<hr/>Resumen El internet industrial de las cosas (IIoT) ha tenido un crecimiento en los últimos años, que permite dar a conocer las recientes innovaciones tecnológicas y poder integrarlas entre sí, como lo son las ciudades inteligentes, entre otras aplicaciones como la salud, educación, tránsito y otras más, pero a su vez se cuenta con una problemática que es la seguridad, debido a que se han registrado incidentes relacionados con IIoT frente a las redes de datos, por ello se hace necesario generar soluciones inteligentes en ciberseguridad, que permitan dar una solución satisfactoria. El objetivo de este trabajo fue proponer una técnica de inteligencia adaptable a un framework de ciberseguridad con la capacidad de solucionar los problemas de ciberseguridad en las redes de los dispositivos IIoT, para el desarrollo de éste se hace uso de la metodología investigación-acción (I-A), la cual consiste en fusionar la teoría con la práctica de tal forma que el investigador pueda generar conclusiones acertadas sobre las prácticas realizadas. En este mismo sentido, con dicha metodología se pretende dar soluciones a problemas concretos en una situación determinada. A partir de lo anterior, se realizó una revisión sistemática de literatura de las diferentes técnicas de inteligencia artificial, para finalmente determinar las más adecuadas y proceder hacer las respectivas validaciones hasta seleccionar la apropiada. Donde se encontró que existen una gran variedad de técnicas de inteligencia como Deep Learning (aprendizaje profundo), quien obtuvo un puntaje muy alto en la caracterización que se realizó por sus grandes posibilidades a la hora de integrar el algoritmo al ámbito de la ciberseguridad, se identificó que se encuentran muy poco caracterizados; sin embargo, en la investigación inicial que se hizo, se obtuvo como resultado el cómo trabajar con esta tecnología y cómo poderla adaptar a la ciberseguridad. Existen diferentes formas de analizar y dar seguridad a los datos en la red, una de esas son las técnicas de aprendizaje, en esta investigación se identificaron varias técnicas que con sus respectivos algoritmos proporcionaron las bases para la adaptabilidad con un framework relacionado con tecnologías IIoT. <![CDATA[Prioritization of areas for high volume loading and unloading. Case: Santiago de Cali]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200025&lng=en&nrm=iso&tlng=en Abstract The socio-economic development of the Valle del Cauca region has been mainly determined by coffee, sugar and, in addition, agricultural production of inputs for agro-industry. Additionally, the city of Cali has different areas with commercial, residential, academic and health activities, some clustered and others mixed together. Based on the territorial análisis, the concept of urban logistics and with help of the combination of Multicriteria Decision Analysis (MCDA) and Analytic Hierarchy Process (AHP) y Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) methodology, it is intended to provide a ranking of proposals on areas in the city with current and future possibilities to be considered as a high volume loading and unloading areas.<hr/>Resumen El desarrollo económico-social de la región del Valle del Cauca fundamentalmente ha estado determinado por la actividad cafetera, azucarera y, además, por la producción agrícola de insumos para la agroindustria. Adicionalmente la ciudad de Cali posee diferentes zonas con actividades comerciales, residenciales, académicas y de salud, algunas clusterizadas y otras mezcladas entre sí. A partir del análisis territorial, el concepto de logística urbana y con ayuda de la combinación de metodologías de Análisis de Decisión Multicriterio (MCDA), como lo es Analytic Hierarchy Process (AHP) y Technique for Order Preference by Similarity to Ideal Solution (TOPSIS), este artículo de investigación pretende entregar un ranking de propuestas sobre zonas en la ciudad con posibilidades actuales y futuras de considerarse como una zona de cargue y descargue de alto volumen. <![CDATA[Mechanical characterization of a red cedar-low density polyethylene composite material]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200026&lng=en&nrm=iso&tlng=en RESUMEN El uso de fibras naturales como material de refuerzo en materiales compuestos se ha convertido en tendencia mundial, sin embargo, es muy limitado el uso, y aun menor la producción de estos materiales a escala local. En el presente trabajo se realiza un análisis experimental para determinar el comportamiento de las propiedades mecánicas de la mezcla de polietileno de baja densidad con materia vegetal, en específico la resistencia máxima real a tensión, compresión y flexión, además se evalúa la influencia de la variación de los elementos constituyentes del compuesto y la procedencia de la madera vegetal<hr/>ABSTRACT The use of natural fibers as reinforcement in composite materials has become a global trend, but the use is very limited, and even less the production of these materials locally. This work is a experimental analysis conducted to determine the behavior of the mechanical properties of the composite made of LDPE-Wood Fiber, specifically resistance to tension, compression and bending, and evaluates the influence of the variation of the constituent elements of the compound and the origin of the wood fiber. <![CDATA[Requirements and tests of the control system of a microgrid, according to the IEEE Std 2030-7-2017 and IEEE Std 2030.8-2018 standards]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200027&lng=en&nrm=iso&tlng=en Resumen En Colombia actualmente no se cuenta con una normativa donde se especifique las métricas que se deben tener en cuenta en cuanto a los requerimientos de los sistemas de control de una microrred (MGCS Microgrid Control System). Partiendo del problema anterior, se vio la necesidad de contar con un artículo de revisión, el cual presentará de forma sintetizada los protocolos y pruebas que se deben realizar en los sistemas de control, antes de su puesta en servicio. Dentro de los resultados se muestra las funciones básicas que debe tener un sistema de control. Las funciones son, despacho y transición, estas funciones centrales son la base para el funcionamiento correcto del MGCS y por tal motivo se presentan sus respectivas pruebas. La sección 2 abordará estas funciones y se presentarán una serie de tablas donde se describirán los requisitos, así como sus características y métricas. En la sección 3 se muestran las pruebas, se exponen los escenarios donde se deben probar y las variables que se deben medir. En el apartado 4 se expone la importancia de las comunicaciones dentro del MGCS, ya que la sinergia de todos los activos, como protecciones, generación distribuida (DG distributed generation) y cargas, depende de una excelente comunicación, por lo que se mencionará una variedad de tecnologías para lograr esta interacción entre todos estos elementos. Se pretende que este artículo de revisión presentado sirva de forma práctica en cuanto a la aplicación de los estándares que sirvieron como base. Esto permitirá que los futuros ingenieros que deseen implementar este tipo de tecnología puedan tener a la mano un resumen claro en cuanto a los requerimientos del sistema de control, dado que son la base fundamental de la microrred (MR).<hr/>Abstract In Colombia, there is currently no regulation that specifies the metrics that must be taken into account in terms of the requirements of the control systems of a microgrid (MGCS Microgrid Control System). Starting from the previous problem, it was necessary to have a review article, which will present in a synthesized way the protocols and tests that must be carried out in the control systems, before their commissioning. The results show the basic functions that a control system must have. The functions are, dispatch and transition, these central functions are the basis for the correct operation of the MGCS and for this reason their respective tests are presented. Section 2 will address these functions and will present a series of tables describing the requirements, as well as their characteristics and metrics. Section 3 shows the tests, sets out the scenarios where they should be tested and the variables that should be measured. In section 4 the importance of communications within the MGCS is exposed, since the synergy of all assets, such as protections, distributed generation (DG distributed generation) and loads, depends on an excellent communication, for which a variety will be mentioned. of technologies to achieve this interaction between all these elements. It is intended that this reflection article presented serves in a practical way in terms of the application of the standards that served as the basis. This will allow future engineers who wish to implement this type of technology to have at hand a clear summary regarding the requirements of the control system, since they are the fundamental basis of the microgrid (MR). <![CDATA[Perspectives on the environmental impact of anthropogenic activities and the generation of solid waste in beaches of the colombian Caribbean]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200028&lng=en&nrm=iso&tlng=en Resumen Los ecosistemas costeros como las playas, son áreas estratégicas, que soportan una gran diversidad biológica y promueven el desarrollo económico de las comunidades, a partir del aprovechamiento y la explotación de sus recursos naturales (turismo, pesca, agricultura, asentamientos humanos). No obstante, el ejercicio incontrolado de estas actividades desencadena un manejo inadecuado del ecosistema generando impactos ambientales como la contaminación por Residuos Sólidos (RS), la modificación de los paisajes, el deterioro en la calidad de los cuerpos de agua, la sobreexplotación de los recursos costeros, y el tráfico de la fauna y flora. Está situación no solo se ha convertido en un problema a nivel ambiental, sino que también afecta la estética y el crecimiento de la economía costera. Con esta revisión se abordarán algunos de los tópicos anteriormente mencionados, evaluando el estado actual del arte con respecto al uso de las playas y su contaminación por RS para el Caribe colombiano, identificando las principales problemáticas que aquejan a las playas de esta región del país. Obteniendo como resultado que las actividades como el turismo y la pesca son una de las principales fuentes contaminantes de las playas. Se requiere ampliar estudios que permitan visibilizar y ampliar el estado de esta problemática en la región, dado que no se observan registros sobre el impacto de las actividades socioeconómicas como fuentes generadoras de RS, y la degradación de las playas, así mismo se evidencia la necesidad de integrar el contexto social y económico para poder reconocer la dinámica propia de cada contexto, que permitan diseñar e implementar herramientas eficientes para la planificación de las zonas costeras y el desarrollo sostenible de las actividades socioeconómicas a lo largo de las playas.<hr/>Abstract Coastal ecosystems such as beaches are strategic areas that support great biological diversity and promote the economic development of communities, based on the use and exploitation of their natural resources (tourism, fishing, agriculture, human settlements). However, the uncontrolled management of these activities have generated a disequilibrium of the ecosystem, generating environmental impacts such as contamination by Solid Waste (RS), modification of landscapes, deterioration in the quality of water bodies, overexploitation of resources coastal areas, and the traffic of fauna and flora. That situation not only become an environmental problem, but also affects the culture of the near populations and growth of the coastal economy. This literature review will address some of the mentioned aspects, evaluating the current state of the art regarding the use of beaches and their contamination by RS for the Colombian Caribbean, identifying the main problems that afflict the beaches of this region of the country. Obtaining as a result that those activities such as tourism and fishing are one of the main polluting sources of the beaches. In conclusion, it is necessary to expand studies that do it possible to make visible and expand the status of this problem in the region, since there are no records on the impact of socioeconomic activities as generating sources of RS, and the degradation of beaches. Likewise the need is evident to integrate the social and economic context in order to recognize the dynamics of each context, which allow the design and implementation of efficient tools for planning coastal areas and the sustainable development of socio-economic activities along the beaches. <![CDATA[Ultrasonic cavitation for wastewater treatment. A Review]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200029&lng=en&nrm=iso&tlng=en Resumen Esta revisión se centra en la técnica conocida por el nombre de cavitación para el tratamiento de aguas residuales. Existen diversas maneras de lograr que un fluido cavite; el centro de atención de este documento son la cavitación hidrodinámica y cavitación acústica. La cavitación ocurre cuando de manera brusca un fluido cambia de fase por variación en la presión de este; las cavidades cuentan con una considerable cantidad de energía que favorece reacciones en el interior e interfase de cada burbuja o cavidad que se forma en el seno del líquido, así como también en fluido. Esta técnica de tratamiento resulta favorable ya que no implica el uso o dosificación de insumos químicos para reducir la concentración de contaminantes en el agua. Las fuentes consultadas señalan que para lograr una mayor efectividad del proceso de cavitación se hace necesario la intensificación del proceso por la implementación simultánea de otras técnicas de tratamiento, entre ellas los procesos de oxidación avanzada, procesos electroquímicos y clarificación del agua. Las combinaciones de cavitación con otras técnicas de tratamiento de aguas residuales han sido objeto de estudio para diferentes contaminantes recalcitrantes logrando resultados muy favorables. Este trabajo hace énfasis principalmente en el estudio las aguas residuales de curtiembres.<hr/>Abstract This review focuses on the technique known by the name of cavitation for wastewater treatment. There are several ways to make a fluid cavitate; the focus of this document is hydrodynamic cavitation and acoustic cavitation. Cavitation occurs when a fluid abruptly changes phase due to a variation in its pressure: the cavities have a considerable amount of energy that favors reactions inside and at the interface of each bubble or cavity that forms within the liquid, as well as in the fluid. This treatment technique is favorable since does not imply the use or dosage of chemical inputs to reduce the concentration of contaminants in the water. The sources consulted indicate that to achieve greater effectiveness of the cavitation process, it is necessary to intensify the process by the simultaneous implementation of other treatment techniques, including advanced oxidation processes, electrochemical processes, and water clarification. The combinations of cavitation with other wastewater treatment techniques have been studied for different recalcitrant pollutants, achieving very favorable results. This work is mainly focused on wastewater from tanneries. <![CDATA[A review on the role of artificial intelligence in the construction industry]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200030&lng=en&nrm=iso&tlng=en Resumen La industria de la construcción y la inteligencia artificial son temas muy importantes que, si las fusionamos, generaría un impacto muy importante en cuanto a la construcción, debido a que se optimizarían muchas labores y el tiempo de trabajo, sin embargo, se debe tener en cuenta la capacidad humana para el manejo de la tecnología. En el presente documento el objetivo es investigar y obtener una comprensión sistemática de la importancia, desafíos y soluciones en las distintas fases de la construcción que ofrece la inteligencia artificial, para ello se realizó una revisión de 86 artículos debidamente indexados de los últimos 7 años entre 2015 y 2021, los cuales se dividen de la siguiente manera: 39 de ScienceDirect, 24 de Scopus y 23 de EBSCO, documentos en los que señalan la importancia de funcionar la inteligencia artificial y la industria de la construcción, dando buenos resultados en cuanto avance, seguridad, calidad y rendimiento en los trabajos, por lo que se puede concluir que la tecnología optimiza tiempo, costos y esfuerzos en la construcción por lo que implementarla es una alternativa potencialmente viable.<hr/>Abstract The construction industry and artificial intelligence are very important topics that, if we merge them, would generate a very important impact in terms of construction, due to the fact that many tasks and work time would be optimized, however, the human capacity for the management of technology must be taken into account. In this paper the objective is to investigate and obtain a systematic understanding of the importance, challenges and solutions in the different phases of construction offered by artificial intelligence, for this purpose a review of 86 duly indexed articles from the last 7 years between 2015 and 2021 was carried out, which are divided as follows: 39 from ScienceDirect, 24 from Scopus and 23 from EBSCO, documents in which they point out the importance of working artificial intelligence and the construction industry, giving good results in terms of progress, safety, quality and performance in the works, so it can be concluded that the technology optimizes time, costs and efforts in construction so implementing it is a potentially viable alternative. <![CDATA[A review of the mechanical behavior of concrete with the addition of steel fibers from recycled tires]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-30332022000200031&lng=en&nrm=iso&tlng=en Resumen El concreto en la industria de la construcción es un material muy usado, por lo que se ha venido investigando la manera de innovar los materiales que usualmente se usan para la elaboración del concreto, pero sin alterar las propiedades mecánicas, es decir que sean igual o mejores de lo que usualmente son; por lo que usar material reciclado es una buena opción ya que sería de ayuda en la disminución de la contaminación, disminuiría el uso de materia prima y mejoraría la situación del medio ambiente. El presente artículo tiene como objetivo revisar diferentes investigaciones sobre un material denominado fibras de acero de neumáticos incorporado en el concreto, que permita mejorar las propiedades de trabajabilidad, resistencia a la compresión, flexión y densidad del concreto. Se realizó una búsqueda de 80 artículos de revisión indexados en diferentes bases de datos, además de ser investigaciones publicadas de los últimos 7 años entre el 2015 y 2021, los cuales se dividen de la siguiente manera: 14 de ScienceDirect, 21 de EBSCO, 20 de Sopas y 24 de Web Of Science, documentos que señalan la importancia de la construcción sostenible y la descripción de las fibras de acero de neumático reciclado. Se revisó los pasos, métodos y técnicas de selección, características y volumen adecuado que debe tener la fibra, después de discutir y analizar los resultados, se llega a la conclusión de que las fibras de acero de neumáticos reciclados causan efectos positivos en las características mecánicas del concreto.<hr/>Abstract Concrete in the construction industry is a widely used material, so there has been research on how to innovate the materials that are usually used for the production of concrete, but without altering the mechanical properties, that is to say that they are equal or better than they usually are; so using recycled material is a good option because it would help to reduce pollution, reduce the use of raw materials and improve the environmental situation. The objective of this article is to review different research on a material called tire steel fibers incorporated in concrete, which allows improving the properties of workability, compressive strength, flexural strength and density of concrete. A search of 80 review articles indexed in different databases was performed, in addition to being published research from the last 7 years between 2015 and 2021, which are divided as follows: 14 from ScienceDirect, 21 from EBSCO, 20 from Sopas and 24 from Web Of Scince, documents that point out the importance of sustainable construction and the description of recycled tire steel fibers. The steps, methods and techniques of selection, characteristics and adequate volume that the fiber should have were reviewed, after discussing and analyzing the results, it is concluded that recycled tire steel fibers cause positive effects on the mechanical characteristics of concrete.