Scielo RSS <![CDATA[Ingeniería]]> http://www.scielo.org.co/rss.php?pid=0121-750X20240002&lang=pt vol. 29 num. 2 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[The Current Landscape of Access to Electrical Energy]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200100&lng=pt&nrm=iso&tlng=pt <![CDATA[A Comparative Analysis between FFT, EMD, and EEMD for Epilepsy Detection]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200200&lng=pt&nrm=iso&tlng=pt Abstract Context: Epilepsy is a neurological disease that affects more than 50 million people worldwide, causing recurrent seizures, with a significant impact on patients’ quality of life due to abnormally synchronized neuronal activity. Method: This article discusses three methods used for signal analysis in patients diagnosed with epilepsy. Conventional signal decomposition methods, such as the fast Fourier transform, widely used in signal analysis based on time series techniques, have some issues when analyzing nonlinear and non-stationary signals, in addition to difficulties in detecting low-order frequencies. Results: To overcome these limitations, alternatives such as empirical mode decomposition and one of its variants, called ensemble empirical mode decomposition, have been developed. Conclusions: In this study, the results obtained through the aforementioned techniques were compared, revealing the impact of nonlinear methods on the reconstruction of brain activity. electroencephalogram, empirical mode decomposition, epilepsy, instantaneous frequency, intrinsic mode functions, methodology, nonlinear, non-stationary, oscillation modes, seizures.<hr/>Resumen Contexto: La epilepsia es una enfermedad neurológica que afecta a más de 50 millones de personas en todo el mundo, provocando convulsiones recurrentes, con un impacto significativo en la calidad de vida de los pacientes debido a actividad neuronal anormalmente sincronizada. Métodos: Este artículo analiza tres métodos empleados para el análisis de señales en pacientes diagnosticados con epilepsia. Los métodos de descomposición de señales convencionales, como la transformada rápida de Fourier, ampliamente utilizada en el análisis de señales basado en técnicas de series de tiempo, presentan algunos problemas al analizar señales no lineales y no estacionarias, así como dificultades para detectar frecuencias de bajo orden. Resultados: Para superar estas limitaciones, se han desarrollado alternativas como la descomposición empírica de modos y una de sus variantes, llamada descomposición modal empírica de conjunto. Estas técnicas permiten observar diferentes modos de oscilación mediante las funciones de modo intrínseco y las frecuencias instantáneas. Conclusiones: En este estudio se compararon los resultados obtenidos mediante las técnicas mencionadas, revelando el impacto de los métodos no lineales en la reconstrucción de la actividad cerebral. <![CDATA[Automated Breast Tumor Detection and Segmentation Using the Threshold Density Algorithm with Logistic Regression on Microwave Images]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200201&lng=pt&nrm=iso&tlng=pt Abstract Context: Breast cancer remains a major health burden worldwide, necessitating improved screening modalities for early detection. However, existing techniques such as mammography and MRI exhibit limitations regarding sensitivity and specificity. Microwave imaging has recently emerged as a promising technology for breast cancer diagnosis, exploiting the dielectric contrast between normal and malignant tissues. Objectives: This study proposes a novel computational framework integrating thresholding, edge segmentation, and logistic regression to enhance microwave image-based breast tumor delineation. Methodology: The employed algorithm selects optimal features using logistic regression to mitigate the class imbalance between tumor and healthy tissues. Localized density thresholds are applied to identify tumor regions, followed by edge segmentation methods to precisely localize the detected lesions. Results: When evaluated on a dataset of microwave breast images, our approach demonstrated high accuracy for detecting and segmenting malignant tissues. Density thresholds ranging from 0.1 to 0.8 showcase the highest accuracy in detecting breast tumors from these images. Conclusions: The results highlight the potential of the proposed segmentation algorithm to improve the reliability of microwave imaging as an adjunct modality for breast cancer screening. This could promote earlier diagnosis and better clinical outcomes. The proposed framework represents a significant advance in developing robust image processing techniques tailored to emerging medical imaging modalities challenged by class imbalance and low intrinsic contrast.<hr/>Resumen Contexto: El cáncer de mama sigue siendo una importante carga sanitaria a nivel mundial, lo que requiere mejores modalidades de cribado para la detección temprana. Sin embargo, las técnicas existentes, como la mamografía y la resonancia magnética, presentan limitaciones en cuanto a sensibilidad y especificidad. Recientemente, la imagen por microondas ha surgido como una prometedora tecnología para el diagnóstico del cáncer de mama, aprovechando el contraste dieléctrico entre los tejidos normales y malignos. Objetivos: Este estudio propone un novedoso marco computacional que integra el umbralizado, la segmentación de bordes y la regresión logística para mejorar la delimitación de tumores mamarios basada en imágenes de microondas. Metodología: El algoritmo empleado selecciona las características óptimas utilizando la regresión logística para mitigar el desequilibrio de clases entre los tejidos tumorales y sanos. Se aplican umbrales de densidad localizados para identificar las regiones tumorales, seguidos de métodos de segmentación de bordes para localizar precisamente las lesiones detectadas. Resultados: Cuando se evaluó en un conjunto de datos de imágenes de microondas de mama, nuestro enfoque demostró una alta precisión para detectar y segmentar los tejidos malignos. Los umbrales de densidad que van desde 0.1 hasta 0.8 muestran la mayor precisión en la detección de tumores mamarios a partir de estas imágenes. Conclusiones: Los resultados resaltan el potencial del algoritmo de segmentación propuesto para mejorar la fiabilidad de la imagen por microondas como modalidad complementaria para el cribado del cáncer de mama. Esto podría promover un diagnóstico más temprano y mejores resultados clínicos. El marco propuesto representa un avance significativo en el desarrollo de técnicas robustas de procesamiento de imágenes adaptadas a las modalidades emergentes de imagen médica desafiadas por el desequilibrio de clases y el bajo contraste intrínseco. <![CDATA[Scheduling in a Simple Assembly Robotics Cell to Minimize Earliness and Tardiness]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200202&lng=pt&nrm=iso&tlng=pt Abstract Background: Robotics Assembly Cells (RAC) have been designed to meet the f lexibility requirements demanded by today’s globalized market. The objective is to manufacture a vast variety of products at a low cost, which requires equipment with a high level of flexibility, such as robots. The need to schedule a great variety of jobs in an RAC is a very relevant issue, as efficiency and productivity depend on the sequence in which jobs are scheduled. Studies around this matter have developed models with analytical and heuristic approaches, as well as simulation methods and genetic algorithms, seeking to improve performance measures based mainly on time, utilization, and costs. Method: The purpose of this article is to formulate an exact mathematical model using mixed-integer linear programming (MILP) to optimize small scheduling problems. The objective is to minimize the measure of performance related to the tardiness and earliness of jobs. This optimization aims to mitigate the effects of delays in product deliveries, queue times, and work-in-process inventory in subsequent processes. Doing so facilitates adherence to agreed-upon delivery deadlines and prevents bottlenecks in the assembly cell. Results: The proposed mathematical model generates optimal solutions to the job scheduling problem in the assembly cell, which serves as a case study. This addresses the need to minimize tardiness to meet delivery deadlines or minimize earliness while avoiding an increase in work-in-process inventories. The model ensures that optimal scheduling decisions are made to optimize both delivery performance and inventory levels. Conclusions: Due to the NP-hard complexity of the scheduling problem under study, the proposed mathematical model demonstrates computational efficiency in solving scheduling problems with fewer than 20 jobs. The model is designed to handle such smaller-scale problems within a reasonable computational time frame, considering the inherent complexity of the scheduling problem.<hr/>Resumen Contexto: Las celdas robóticas de ensamble RAC han sido diseñadas para cumplir con los requerimientos de flexibilidad que exige el mercado globalizado actual. El objetivo es fabricar una alta variedad de productos a bajos costos, por lo cual se requiere de equipos con un alto nivel de f lexibilidad como los robots. La necesidad de programar una amplia variedad de trabajos en una RAC es un problema muy relevante, dado que la eficiencia y la productividad dependen de la secuencia en la cual se programan los trabajos. Los estudios alrededor de este asunto han desarrollado modelos con enfoques analíticos y heurísticos, así como métodos de simulación y algoritmos genéticos, que buscan mejorar medidas de desempeño basadas principalmente en el tiempo, el grado de utilización y el costo. Método: El propósito de este artículo es formular un modelo matemático exacto mediante programación lineal entera mixta (MILP) para optimizar problemas pequeños de programación. El objetivo es minimizar las medidas de desempeño de tardanza y adelanto de los trabajos. Esta optimización busca mitigar los efectos de las demoras en las entregas de los productos, los tiempos de cola y los inventarios de producto en proceso en instancias posteriores. Esto permite cumplir con los plazos de entrega pactados y evita bloqueos en la celda de ensamble. Resultados: El modelo matemático propuesto genera soluciones óptimas al problema de programación de trabajos en la celda de ensamble propuesta, lo que sirve como caso de estudio. Esto aborda la necesidad de minimizar las tardanzas para cumplir con los plazos de entrega o de minimizar los adelantos y evitar un aumento en los inventarios de producto en proceso. El modelo garantiza que se tomen decisiones óptimas de programación tanto para mejorar los tiempos de entrega como los niveles de inventario. Conclusiones: Debido a la complejidad NP-difícil del problema de programación estudiado, el modelo matemático propuesto demuestra eficiencia computacional en la resolución de problemas de programación con menos de 20 trabajos. El modelo está diseñado para manejar tales problemas de menor escala dentro de un marco de tiempo computacional razonable, considerando la complejidad inherente del problema de programación. <![CDATA[Explainable Artificial Intelligence as an Ethical Principle]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200203&lng=pt&nrm=iso&tlng=pt Abstract Context: The advancement of artificial intelligence (AI) has brought numerous benefits in various fields. However, it also poses ethical challenges that must be addressed. One of these is the lack of explainability in AI systems, it i.e., the inability to understand how AI makes decisions or generates results. This raises questions about the transparency and accountability of these technologies. This lack of explainability hinders the understanding of how AI systems reach conclusions, which can lead to user distrust and affect the adoption of such technologies in critical sectors it e.g., medicine or justice). In addition, there are ethical dilemas regarding responsibility and bias in AI algorithms. Method: Considering the above, there is a research gap related to studying the importance of explainable AI from an ethical point of view. The research question is it what is the ethical impact of the lack of explainability in AI systems and how can it be addressed? The aim of this work is to understand the ethical implications of this issue and to propose methods for addressing it. Results: Our findings reveal that the lack of explainability in AI systems can have negative consequences in terms of trust and accountability. Users can become frustrated by not understanding how a certain decision is made, potentially leading to mistrust of the technology. In addition, the lack of explainability makes it difficult to identify and correct biases in AI algorithms, which can perpetuate injustices and discrimination. Conclusions: The main conclusion of this research is that AI must be ethically explainable in order to ensure transparency and accountability. It is necessary to develop tools and methodologies that allow understanding how AI systems work and how they make decisions. It isalso important to foster multidisciplinary collaboration between experts in AI, ethics, and human rights to address this challenge comprehensively.<hr/>Resumen Contexto: El avance de la inteligencia artificial (IA) ha traído numerosos beneficios en varios campos. Sin embargo, también plantea desafíos éticos que deben ser abordados. Uno de estos es la falta de explicabilidad en los sistemas de IA, i.e., la incapacidad de entender cómo la IA toma decisiones o genera resultados. Esto plantea preguntas sobre la transparencia y la responsabilidad de estas tecnologías. Esta falta de explicabilidad limita la comprensión de la manera en que los sistemas de IA llegan a ciertas conclusiones, lo que puede llevar a la desconfianza de los usuarios y afectar la adopción de tales tecnologías en sectores críticos (e.g., medicina o justicia). Además, existen dilemas éticos respecto a la responsabilidad y el sesgo en los algoritmos de IA. Método: Considerando lo anterior, existe una brecha de investigación relacionada con estudiar la importancia de la IA explicable desde un punto de vista ético. La pregunta de investigación es ¿cuál es el impacto ético de la falta de explicabilidad en los sistemas de IA y cómo puede abordarse? El objetivo de este trabajo es entender las implicaciones éticas de este problema y proponer métodos para abordarlo. Resultados: Nuestros hallazgos revelan que la falta de explicabilidad en los sistemas de IA puede tener consecuencias negativas en términos de confianza y responsabilidad. Los usuarios pueden frustrarse por no entender cómo se toma una decisión determinada, lo que puede llevarlos a desconfiar de la tecnología. Además, la falta de explicabilidad dificulta la identificación y la corrección de sesgos en los algoritmos de IA, lo que puede perpetuar injusticias y discriminación. Conclusiones: La principal conclusión de esta investigación es que la IA debe ser éticamente explicable para asegurar la transparencia y la responsabilidad. Es necesario desarrollar herramientas y metodologías que permitan entender cómo funcionan los sistemas de IA y cómo toman decisiones. También es importante fomentar la colaboración multidisciplinaria entre expertos en IA, ética y derechos humanos para abordar este desafío de manera integral. <![CDATA[Mobile Application for Recognizing Colombian Currency with Audio Feedback for Visually Impaired People]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200204&lng=pt&nrm=iso&tlng=pt Abstract Context: According to the census conducted by the National Department of Statistics (DANE) in 2018, 7.1\% of the Colombian population has a visual disability. These people face conditions with limited autonomy, such as the handling of money. In this context, there is a need to create tools to enable the inclusion of visually impaired people in the financial sector, allowing them to make payments and withdrawals in a safe and reliable manner. Method: This work describes the development of a mobile application called CopReader. This application enables the recognition of coins and banknotes of Colombian currency without an Internet connection, by means of convolutional neural network models. CopReader was developed to be used by visually impaired people. It takes a video or photographs, analyzes the input data, estimates the currency value, and uses audio feedback to communicate the result. Results: To validate the functionality of CopReader, integration tests were performed. In addition, precision and recall tests were conducted, considering the YoloV5 and MobileNet architectures, obtaining 95 and 93\% for the former model and 99\% for the latter. Then, field tests were performed with visually impaired people, obtaining accuracy values of 96%. 90% of the users were satisfied with the application’s functionality. Conclusions: CopReader is a useful tool for recognizing Colombian currency, helping visually impaired people gain to autonomy in handling money. <![CDATA[Determining the Pulping Conditions and Properties of Unbleached Pulp from Uruguayan Pinus Taeda]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200205&lng=pt&nrm=iso&tlng=pt Abstract Context: In Uruguay, numerous Pinus taeda plantations are at final-turn age, but they still do not have commercial destination and are exported as green-wood logs. For the development of this sector, it is necessary to strive towards a comprehensive processing of this resource. Method: This work focused on analyzing the use of Pinus taeda wood available in the country to produce brown kraft pulp with a kappa number of 80, which can be used to make packaging paper. As raw materials, we employed by-products from the mechanical wood-transformation industry (wood chips and thinning wood) and final-turn wood. Pulping tests were carried out, varying the alkali charge and the H-factor while aiming for a kappa number of 80. The viscosity, pulping, and rejection yield were measured in the pulps, and the pH and residual alkali content were evaluated in black liquor. Results: Based on the results, the best pulping conditions were an active alkali charge of 14% (Na2O) and an H-factor of 1260 for sawmill chips and thinning wood, as well as an active alkali charge of 14% (Na2O) and an H-factor of 1080 for f inal-turn wood. The pulp obtained with sawmill chips exhibited the most resistant f ibers, and the final-turn wood pulp was the most sensitive to the refining process. Under the aforementioned conditions, the paper properties of laboratory-produced pulp are comparable with those of commercial pulp. Conclusions: This indicates that it is technologically possible to produce brown kraft pulp from Uruguayan Pinus taeda wood, with adequate quality to produce packaging paper.<hr/>Resumen Contexto: En Uruguay existen numerosas plantaciones de Pinus taeda que están en edad de turno final, pero que aún no tienen un destino comercial y se exportan como troncos verdes. Para el desarrollo de este sector, es necesario buscar un procesamiento integral de este recurso. Método: Este trabajo se enfocó en analizar el uso de la madera de Pinus taeda disponible en el país en la producción de pulpa kraft marrón con un número kappa de 80, que puede utilizarse para fabricar papel de embalaje. Como materia prima, se emplearon subproductos de la industria del aserrado (chips y madera de raleo) y madera de turno final. Se realizaron ensayos de pulpeo, variando la carga de álcali y el factor H con el objetivo de alcanzar un número kappa de 80. Sobre las pulpas se midieron la viscosidad, el rendimiento del pulpeo y el rechazo, y se evaluaron el pH y el contenido de álcali residual sobre el licor negro. Resultados: Con base en los resultados, las mejores condiciones de pulpeo fueron una carga de álcali activo del 14% (Na2O) y un factor H de 1260 para los chips de aserradero y la madera de raleo, así como una carga de álcali activo del 14% (Na2O) y un factor H de 1080 para la madera de turno final. La pulpa obtenida con chips de aserradero presentó las fibras más resistentes, y la pulpa de madera de turno final fue la más sensible al proceso de refinado. Bajo las condiciones mencionadas, las propiedades papeleras de la pulpa producida en laboratorio son comparables con las de la pulpa comercial. Conclusiones: Esto indica que es tecnológicamente posible producir pulpa kraft marrón a partir de madera de Pinus taeda uruguaya, con la calidad adecuada para producir papel de embalaje. <![CDATA[Community-Based Early Warning System Model for Stream Overflow in Barranquilla]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200206&lng=pt&nrm=iso&tlng=pt Abstract Context: This work aims to design and create an early warning model based on the community as an alternative for the mitigation of the disaster caused by the streams that overflow in Barranquilla (Colombia). This model is based on the contributions in social networks, which are consulted through the API of each social network and f iltered according to their location. Methods: With the information collected is performed cleaning and debugging, and then with natural language processing techniques tokenize vectorize the texts, seeking to operate mathematically to find the vector similarity between processed texts, thus generating a classification between texts associated with stream overflow and texts that are not associated with overflow. Results: The texts classified as stream overflow are processed again to obtain a location or assign a default one, to consequently georeferenced these data in a map that allows to associate the risk zone and visualize it in a web application, monitoring and reducing the possible damage generated to the population. Conclusions: To choose the best classifier, 3 classification algorithms were selected (random forest, extra tree, and k-neighbor), which presented better performance and R2 in reference to the data processed in the regressions performed. the three algorithms were trained, and the k-neighbor algorithm was found to be the best.<hr/>Resumen Contexto: Este artículo busca crear un modelo de alerta temprana como alternativa para mitigar el desastre provocado por los arroyos en Barranquilla Colombia, este modelo está basado en la comunidad por medio de redes sociales, consultando el api de cada red social, en donde se filtra por área de localización. Métodos: Con la información recolectada y depurada por medio de técnicas de procesamiento de lenguaje natural se convierten los textos en vectores, con el fin de clasificar en base a la similitud vectorial entre los textos procesados, generando así una clasificación entre los textos asociados al flujo de desbordamiento y los textos que no lo son. asociado con el desbordamiento. Resultados: Los textos clasificados como desbordamiento de arroyos son nuevamente procesados para obtener una ubicación o asignar una predeterminada, para posteriormente georreferenciar estos datos en un mapa que permite asociar la zona de riesgo y visualizarla en una aplicación web, monitoreando y reduciendo los posibles daños generados a la población. Conclusiones: Para elegir el mejor clasificador se seleccionaron 3 algoritmos de clasificación random forest, extra tree y k-neighbor), los cuales presentaron mejor rendimiento y R2 en referencia a los datos procesados en las regresiones realizadas. Se entrenaron los tres algoritmos y se descubrió que el algoritmo k-neighbor era el mejor. <![CDATA[Methodology for the Selection of Risk Response Actions while Considering Corporate Objectives in the Metalworking Industry]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2024000200207&lng=pt&nrm=iso&tlng=pt Abstract Context: Projects in metalworking companies are affected by risk. Proper risk management depends on the responses provided to improve the project plan. However, multiple potential actions may result in constraints due to multiple factors. The purpose of this article is to propose a hybrid approach to solve the problem of selecting risk response actions while considering strategic objectives, fuzzy logic, and simulation. Method: First, 334 risks were identified through a literature review and a discussion with experts. These were then filtered, resulting in 70 operational risks. Subsequently, the ten critical risks were prioritized using the risk matrix. Then, using Monte Carlo simulation and correlation analysis, the activities most affected by the risks were identified. Finally, potential response actions were designed for each case, and fuzzy logic and quality function deployment were applied to evaluate them. Results: The selected responses were framed within the strategic objectives, i.e., customer satisfaction, business profitability, and implementation of new technologies. This, while considering some corporate attributes that the actions had to meet finishing the project on time, having low costs, and meeting the scope. The selected actions had a better profile than others seeking to minimize time or costs. Conclusions: EPCC projects are complex and often suffer from gaps in scope, time, and cost. Risk analysis and the selection of responses in the planning phase help to improve performance. This study developed a risk response plan for a project executed in Brazil. Risks were identified, classified, and mitigated using simulations, resulting in an 11-day reduction in the project’s estimated duration.<hr/>Resumen Contexto: Los proyectos en empresas metalmecánicas se ven afectados por el riesgo. Una correcta gestión de riesgos depende de las respuestas que se brinden para mejorar el plan del proyecto. Sin embargo, múltiples acciones potenciales pueden resultar en restricciones por múltiples factores. El propósito de este artículo es proponer un enfoque híbrido para resolver el problema de seleccionar acciones de respuesta a riesgos considerando objetivos estratégicos, lógica difusa y simulación. Método: Primero, se identificaron 334 riesgos mediante una revisión de la literatura y una discusión con expertos. Estos fueron filtrados, lo que resultó en 70 riesgos operacionales. Posteriormente, se priorizaron los 10 riesgos críticos utilizando la matriz de riesgos. Luego, mediante simulación Monte Carlo y análisis de correlación, se identificaron las actividades más afectadas por los riesgos. Finalmente, se diseñaron potenciales acciones de respuesta para cada caso, y se aplicó lógica difusa y despliegue de funciones de calidad para evaluarla. Resultados: Las respuestas seleccionadas se enmarcaron en los objetivos estratégicos, i.e., satisfacción del cliente, rentabilidad del negocio, e implementación de nuevas tecnologías. Esto, teniendo en cuenta algunos atributos corporativos que las acciones debían cumplir: finalizar a tiempo el proyecto, tener costos bajos y cumplir con el alcance. Las acciones seleccionadas tuvieron un mejor perfil que otras opciones que buscaban minimizar tiempo o costos. Conclusiones: Los proyectos EPCC son complejos y a menudo sufren de desfases en alcance, tiempo y costo. El análisis de los riesgos y la selección de las respuestas en la fase de planificación ayudan a un mejor desempeño. Este estudio desarrolló un plan de respuesta a riesgos para un proyecto desarrollado en Brasil. Los riesgos fueron identificados, clasificados y mitigados mediante simulaciones, lo que resultó en una reducción de 11 días en la duración estimada del proyecto.