Scielo RSS <![CDATA[Ingeniería]]> http://www.scielo.org.co/rss.php?pid=0121-750X20250001&lang=pt vol. 30 num. 1 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[RIBIERSE-Cyted: Network for the Large-Scale Integration of Renewable Energies in Electrical Systems) - Results for 2024]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100001&lng=pt&nrm=iso&tlng=pt <![CDATA[Development and Validation of a Computer Vision-Based Tool for Automated 3D Dental Model Arch Prediction]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100002&lng=pt&nrm=iso&tlng=pt Abstract Context: Accurate dental arch shape prediction is crucial for orthodontic treatment and personalized dental appliance creation. This study introduces a computer vision-based tool for predicting arch shapes in 3D dental models. Objective: To automate the selection of dental arch shapes through mathematical model analysis. Method: A dataset of 484 digital dental models was narrowed to 50 through specific criteria. Experts classified these into ovoid, square, and tapered shapes using 3M templates. An automated 3D dental arch shape prediction tool was developed, incorporating automatic alignment, cusp detection, curve fitting with a sixth-order polynomial, and model comparison. Our validations employed attribute agreement analysis, the root mean squared error, the sum of squared errors, and a Gage R&amp;R study. Results: This study achieved a 90% agreement rate in the evaluator vs. standard comparison for the lower jaw, as well as 78% for that of the upper jaw. The Gage R&amp;R study confirmed measurement reliability, and the sixth-order polynomial model was identified as optimal for arch shape description. The tool's predictive accuracy was validated through comparative analysis. Conclusion: This research introduces an effective automated method for selecting dental arch shapes. The tool demonstrated substantial accuracy, with the potential to significantly enhance orthodontic diagnostic and treatment planning processes. Future research could further refine this methodology by exploring advanced mathematical models and incorporating machine learning techniques to optimize the selection process.<hr/>Resumen Contexto: La predicción precisa de la forma del arco dental es crucial para el tratamiento ortodóncico y la creación de aparatos dentales personalizados. Este estudio introduce una herramienta basada en visión por computadora para predecir las formas de arcos en modelos dentales digitales 3D. Objetivo: Automatizar la selección de formas del arco dental mediante el análisis matemático de modelos. Método: De 484 modelos dentales digitales, se seleccionaron 50 mediante criterios específicos, que fueron clasificados por expertos en formas ovoides, cuadradas y cónicas usando plantillas 3M. Se desarrolló una herramienta de predicción automatizada de la forma del arco dental 3D, incorporando alineación automática, detección de cúspides, ajuste de curvas con un polinomio de sexto orden y comparación de modelos. Nuestras validaciones emplearon el análisis de concordancia de atributos, la raíz del error cuadrático medio, la suma de errores cuadráticos y un estudio Gage R&amp;R. Resultados: El estudio logró una tasa de concordancia del 90 % en la comparación de evaluador vs. estándar para la mandíbula inferior, además de 78 % para la mandíbula superior. El estudio Gage R&amp;R afirmó la fiabilidad de la medición, y el modelo de polinomio de sexto orden fue identificado como óptimo para la descripción de la forma del arco. La precisión de la herramienta fue validada mediante análisis comparativo. Conclusión: Esta investigación introduce un método automatizado para seleccionar formas de arcos dentales. La herramienta demostró una precisión sustancial, con potencial para mejorar significativamente los procesos de diagnóstico y planificación de tratamientos ortodóncicos. Futuras investigaciones podrían refinar esta metodología explorando otros modelos matemáticos e incorporando técnicas de aprendizaje automático. <![CDATA[Optimal Selection of Intrinsic Mode Functions Applied to Seizure Detection]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100003&lng=pt&nrm=iso&tlng=pt Abstract Context: Epilepsy is a severe chronic neurological disorder with considerable incidence due to recurrent seizures. These seizures can be detected and diagnosed noninvasively using an electroencephalogram. Empirical mode decomposition has shown excellent results in identifying epileptic crises. Method: This study addressed a significant gap by proposing a novel approach for the automated selection of the most relevant intrinsic mode functions (IMFs) using empirical mode decomposition and discrimination metrics such as the Minkowski distance, the mean square error, cross-correlation, and the entropy function. The main objective was to address the challenge of determining the optimal number of IMFs required to accurately reconstruct brain activity signals. Results: The results were promising, as they facilitated the identification of IMFs that contained the most relevant information, marking a significant advancement in the field. To validate these findings, standard methods including the correlation coefficient, the p-value, and the Wasserstein distance were employed. Additionally, an EEGLAB-based brain mapping was conducted, adding robustness and credibility to the results obtained. Conclusions: Our method is a fundamental tool that enhances epileptic seizure identification from EEG signals, with significant clinical implications in the diagnosis and treatment of epilepsy.<hr/>Resumen Contexto: La epilepsia es un trastorno neurológico crónico grave con una incidencia considerable debido a convulsiones recurrentes. Estas convulsiones pueden ser detectadas de manera no invasiva y diagnosticadas mediante un electroencefalograma. La descomposición modal empírica ha mostrado excelentes resultados en la identificación de crisis epilépticas. Métodos: Este estudio abordó una brecha significativa al proponer un enfoque novedoso para la selección automatizada de las funciones de modo intrínseco (IMF) más relevantes utilizando descomposición empírica de modo y métricas de discriminación tales como la distancia de Minkowski, el error cuadrático medio, la correlación cruzada y la función de entropía. El objetivo primario fue abordar el desafío de determinar el número óptimo de IMF requeridas para reconstruir con precisión las señales de actividad cerebral. Resultados: Los resultados fueron prometedores, pues facilitaron la identificación de IMF que contenían la información más relevante, marcando un avance significativo en el campo. Para validar estos hallazgos, se emplearon métodos estándar, incluyendo el coeficiente de correlación, el valor p y la métrica de Wasserstein. Además, se realizó un mapeo cerebral con EEGLAB, lo que agregó robustez y credibilidad a los resultados obtenidos. Conclusiones: Nuestro método es una herramienta fundamental que permite mejorar la identificación de convulsiones epilépticas a partir de señales de EEG, con importantes implicaciones clínicas en el diagnóstico y tratamiento de la epilepsia. <![CDATA[Structural Assessment of Flexible Pavements Based on the Level of Detail of Management Functions]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100004&lng=pt&nrm=iso&tlng=pt Abstract Context: Pavement condition data are a fundamental component of pavement management systems (PMS) and play a critical role in structural evaluation. The quality of these data directly influences decision-making processes at the network, project, or research level particularly regarding the pavement project life cycle. Method: This study aimed to assess 18 techniques for evaluating the structure of flexible pavements, utilizing both non-destructive (NDT) and destructive (DT) testing. Following a comprehensive review of the consulted techniques, proprietary models were developed and implemented across multiple projects to structurally evaluate in-service pavements. Statistical analysis was employed to determine the relationships between parameters, distinguishing between those based on empirical and mechanistic approaches. Results: The application of evaluation techniques revealed that parameters such as radial strain (εrca), vertical strain (εzsr), and the structural number exhibit a strong correlation when categorized within the same approach. Conversely, their correlation is moderately strong when differing approaches are used. Additionally, models relying solely on deflection basin data demonstrated high correlation with rigorous methods that incorporate thickness data. Conclusions: These findings underscore the practical value of the developed models in pavement management at the network level, offering cost-effective solutions that enhance the detection of structural deficiencies and inform maintenance and rehabilitation strategies.<hr/>Resumen Contexto: Los datos sobre el estado del pavimento son un componente fundamental de los sistemas de gestión (SGP) y desempeñan un papel importante en la evaluación estructural. Dependiendo de la calidad de la información, estos datos son valiosos para la toma de decisiones a nivel de red, de proyecto o de investigación en relación con la gestión del ciclo de vida del pavimento. Método: El objetivo de este estudio fue evaluar 18 técnicas de evaluación estructural de pavimentos flexibles basadas en ensayos no destructivos (END) y destructivos (DT). Después de una revisión integral de las técnicas consultadas, se desarrollaron modelos propios que fueron implementados en múltiples proyectos para la evaluación estructural de pavimentos en servicio. Se empleó el análisis estadístico para determinar las relaciones entre parámetros, distinguiendo entre aquellos que se basan en enfoques empíricos y mecanísticos. Resultados: La aplicación de las técnicas de evaluación reveló que parámetros como la deformación radial (εrca), la deformación vertical (εzsr) y el número estructural presentan una fuerte correlación cuando pertenecen al mismo enfoque. Por otro lado, su correlación es moderadamente fuerte si el enfoque difiere. Además, los modelos que se basan únicamente en datos de cuencas de deflexión se correlacionan muy bien con métodos rigurosos que también requieren datos de espesores. Conclusiones: Los resultados resaltan el valor práctico de los modelos desarrollados para la gestión de pavimentos a nivel de red, proporcionando una solución eficiente en costos que facilita la detección de deficiencias estructurales y mejora las estrategias de mantenimiento y rehabilitación. <![CDATA[Analysis of the Physical and Mechanical Behavior of Soil Reinforced with Banana Fibers]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100005&lng=pt&nrm=iso&tlng=pt Abstract Context: Soils reinforced with natural fibers such as banana fibers (BF) constitute a promising alternative for improving the geotechnical properties of the soil, especially in rapidly growing urban contexts like Peru. Methods: This study was structured into four stages: the extraction and preparation of soil samples; the evaluation of the physical characteristics of the fibers; mixing with proportions of 0.5,1,1.5, and 2% BF relative to the soil dry weight; and physical and mechanical tests to assess the effects on geotechnical properties. Results: The addition of 1% BF optimized the properties of the modified soil: the maximum dry density remained stable, the California bearing ratio increased by 5.95%, and the unconfined compressive strength increased by 23.81% compared to natural soil. Conclusions: The use of BF-treated soil meets the local standards for application in infrastructure such as roads and pavements, thus promoting sustainable construction practices and contributing to the development of resilient and environmentally responsible infrastructure.<hr/>Resumen Contexto: Los suelos reforzados con fibras naturales como las fibras de plátano (FP) representan una alternativa prometedora para mejorar las propiedades geotécnicas de los suelos arcillosos de baja plasticidad, especialmente en contextos urbanos de rápido crecimiento como el Perú. Métodos: Este estudio se estructuró en cuatro etapas: la extracción y preparación de muestras del suelo; la evaluación de las características de la fibra; la mezcla con proporciones de 0.5, 1, 1.5 y 2% de FP respecto al peso seco del suelo; y la realización de pruebas físicas y mecánicas del suelo estabilizado. Resultados: La adición de 1 % de FP optimizó las propiedades del suelo natural, pues la máxima densidad seca se mantuvo estable, el índice de soporte de California aumentó en un 5.95% y la resistencia a la compresión no confinada incrementó en un 23.81 % en comparación con el suelo natural. Conclusiones: El uso del suelo tratado con FP cumple con los estándares locales para aplicaciones en infraestructuras como carreteras y pavimentaciones, lo que promueve prácticas constructivas sostenibles y contribuye al desarrollo de infraestructuras resilientes y ambientalmente responsables. <![CDATA[Deep Learning and Time Series for the Prediction of Monthly Precipitation. A Case Study in the Department of Boyacá, Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100006&lng=pt&nrm=iso&tlng=pt Abstract Context: This paper proposes a method for the prediction of monthly precipitation in the department of Boyacá using models based on deep neural networks (DNNs). These approaches have achieved significant improvements in prediction accuracy when compared to traditional methods. Method: Data with a spatial resolution of 0.5° were extracted from CHIRPS 2.0 and subsequently preprocessed for the implementation of two approaches based on recurrent neural networks (RNNs) with long short-term memory (LSTM) and ConvLSTM architectures, aiming to provide accurate predictions of monthly precipitation in the studied region. Objectives: The goal of this time series analysis is to predict monthly precipitation and develop accurate models that can forecast future rainfall patterns based on historical data. This aids in water resource management and agricultural planning, as well as in mitigating the impacts of droughts or floods. Results: According to the results obtained, the LSTM model stands out for its robustness in terms of performance metrics, such as a lower mean squared error, a lower root mean squared error, and a coefficient of determination closer to 1. This demonstrates its higher accuracy compared to the ConvLSTM model. Conclusions: Deep learning models, especially RNNs with LSTM, are effective tools for predicting crucial climate data. Acknowledgments: The authors would like to thank the Research Vice-Principalship of Universidad Pedagógica y Tecnológica de Colombia for funding project SGI 3535.<hr/>Resumen Contexto: Este trabajo propone un método para la predicción de la precipitación mensual en el departamento de Boyacá utilizando modelos basados en redes neuronales profundas (DNNs). Estos enfoques han logrado mejoras significativas en la precisión de la predicción en comparación con los métodos tradicionales. Método: Datos con una resolución espacial de 0.5° fueron extraídos de CHIRPS 2.0 y posteriormente preprocesados para la implementación de aproximaciones basadas en redes neuronales recurrentes (RNNs) con memoria de largo plazo (LSTM) y ConvLSTM para proporcionar predicciones precisas de precipitación. mensual en la región. Objetivos: El objetivo de este análisis de series temporales es predecir la precipitación mensual y desarrollar modelos precisos que pronostiquen los patrones de precipitación futuros basándose en datos históricos. Esto contribuye a la gestión de los recursos hídricos, la planificación agrícola y la mitigación de los efectos de sequías o inundaciones. Resultados: Los resultados obtenidos muestran que el modelo LSTM se destaca por su robustez en términos de métricas de rendimiento, tales como un menor error cuadrático medio, una menor raíz del error cuadrático medio y un coeficiente de determinación más cercano a 1. Esto demuestra su mayor precisión en comparación con el modelo ConvLSTM. Conclusiones: Los modelos de aprendizaje profundo, especialmente los modelos RNN con LSTM, son herramientas eficaces para predecir datos climáticos cruciales. Agradecimientos: Los autores agradecen al Vicerrectorado de Investigación de la Universidad Tecnológica de Pereira por la financiación del proyecto SGI 3535. <![CDATA[Design and Implementation of a Virtual Laboratory for the Analysis and Synthesis of Mechanisms]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100007&lng=pt&nrm=iso&tlng=pt Abstract Context: This paper presents the design and implementation of a virtual laboratory developed as a pedagogical support tool for courses in mechanisms analysis and synthesis within Mechanical Engineering programs. Method: Our virtual laboratory was developed using GeoGebra, Moodle, and Matlab. The design methodology was structured into four key stages: requirements analysis, conceptual design, content development, and implementation and evaluation. Results: The outcome is a comprehensive virtual laboratory framework comprising 12 interactive exercises focused on the analysis and synthesis of planar mechanisms. This paper outlines the functional features of the virtual laboratory, including its graphical user interface, user guide, instructional practices, and assessment procedures - demonstrating its value as an effective tool to support and enhance both teaching and student learning. Conclusions: The virtual laboratory allowed students to conceptualize through the visualization of kinematic and dynamic variables, offering a complementary and interactive alternative to traditional theoretical instructions. This aligns with active learning strategies, as the teacher reported greater student engagement. Students advanced at their own pace through the exercises and were able to observe how geometric and functional modifications in mechanisms influence their kinematic and dynamic behavior.<hr/>Resumen Contexto: Este trabajo presenta el diseño y la implementación de un laboratorio virtual desarrollado como soporte pedagógico en la enseñanza de la teoría de máquinas y mecanismos en ingeniería mecánica. Método: Nuestro laboratorio virtual fue desarrollado utilizando Geogebra, Moodle y Matlab. La metodología de diseño se estructuró en cuatro etapas clave: análisis de requerimientos, diseño conceptual, desarrollo de contenido e implementación y evaluación. Resultados: El resultado es un marco integral de laboratorio virtual que contiene 12 ejercicios centrados en el análisis y la síntesis de mecanismos planos. Este artículo presenta las características funcionales del laboratorio virtual, incluyendo su interfaz gráfica de usuario, guía de usuario, prácticas institucionales y procedimientos de evaluación -demostrando su valor como herramienta efectiva para apoyar y mejorar la enseñanza y el aprendizaje de los estudiantes. Conclusiones: El laboratorio virtual permitió a los estudiantes conceptualizar mediante la visualización de variables cinemáticas y dinámicas, ofreciendo una alternativa complementaria e interactiva a la instrucción teórica tradicional. Esto se alinea con las estrategias de aprendizaje activo, pues el docente reportó un mayor compromiso por parte de los estudiantes. Los estudiantes avanzaron a su propio ritmo a través de los ejercicios y pudieron observar cómo las modificaciones geométricas y funcionales en los mecanismos influyen en su comportamiento cinemático y dinámico. <![CDATA[Study Comparing Empirical Data on Sensors used to Measure Obstacle Distance]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100008&lng=pt&nrm=iso&tlng=pt Abstract Context: Electronic sensors play a crucial role in different applications such as robotics or industrial or home automation. Sensors can measure essential environmental variables in order to feed digital signal processing algorithms and perform actions more efficiently. The sensors used for distance measurements follow different approaches. However, it is difficult to find a study with performance comparisons. Method: An empirical study was performed to evaluate and compare the performance of ultrasonic and infrared sensors in frontal and lateral detection situations while considering distance and angle variations. Results: The results show that the ultrasonic sensor detects the distance with good accuracy along its operational range. However, the distance measure is inaccurate when the obstacle is not orthogonal to the sensor. The ultrasonic sensor showed high accuracy in long-range, frontal obstacle detection, while the infrared sensor performed better at short distances with angled obstacles. Statistical analysis confirmed strong linear correlations, especially for the ultrasonic sensor, supporting the complementary use of both sensors in distance measurement applications. Conclusions: An evaluation of ultrasonic and infrared sensors for distance measurement in applications involving robotics and the Internet of Things revealed that the former are more reliable for distant, orthogonal obstacles, while the latter perform better at short distances on angled surfaces, highlighting their complementary strengths and the need for future improvements to address environmental sensitivity and detection limitations.<hr/>Resumen Contexto: Los sensores electrónicos tienen un papel crucial en diferentes aplicaciones como la robótica o la automatización industrial o doméstica. Los sensores pueden medir variables ambientales esenciales para alimentar algoritmos digitales de procesamiento de señales y realizar acciones de una manera más eficiente. Los sensores que se utilizan para mediciones de distancia siguen enfoques diferentes. Sin embargo, es difícil encontrar un estudio con comparaciones de desempeño. Método: Se realizó un estudio empírico para evaluar y comparar el rendimiento de sensores ultrasónicos e infrarrojos en situaciones de detección frontal y lateral, considerando variaciones de ángulo y distancia. Resultados: Los resultados muestran que el sensor ultrasónico detecta la distancia con buena precisión a lo largo de su rango operacional. Sin embargo, la medida de distancia se torna inexacta cuando el obstáculo no está ortogonal al sensor. El sensor ultrasónico mostró gran precisión en la detección de largo alcance de obstáculos frontales, mientras que el sensor infrarrojo se desempeñó mejor en distancias cortas con obstáculos en ángulo. Un análisis estadístico confirmó la presencia de correlaciones lineales fuertes, especialmente en el caso del sensor ultrasónico, lo que respalda el uso complementario de ambos sensores en aplicaciones de medición de distancias. Conclusiones: La evaluación de sensores ultrasónicos e infrarrojos para la medición de distancias en aplicaciones que involucran robótica y el Internet de las cosas reveló que los primeros son más fiables para obstáculos distantes y ortogonales, mientras que los segundos funcionan mejor en distancias cortas y con superficies en ángulo, resaltando sus fortalezas complementarias y la necesidad de futuras mejoras para abordar la sensibilidad ambiental y otras limitaciones de detección. <![CDATA[Bibliometric Analysis and Overview of Matrix Product States in the Bose-Hubbard Model]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2025000100009&lng=pt&nrm=iso&tlng=pt Abstract Context: Quantum many-body systems have been a prominent topic over the past two decades, underpinning advancements in superconductors, ultracold atoms, and quantum computing, among other fields. This bibliometric analysis explores key concepts, influential authors, and the current significance of a powerful family of algorithms in computational physics, i.e., density matrix renormalization group (DMRG) algorithms. Special emphasis is placed on the use of tensor product states in developing classical simulations of quantum systems. Method: This paper presents a literature review sourced from the SCOPUS database. It analyzes trends and approaches related to uncertainty in numerical developments for quantum many-body systems, with a focus on the Bose-Hubbard Model, in order to better understand the imposition of additional constraints to ensure the validity of the results. Results: The increasing number of publications on this topic over the last decade indicates a growing interest in solutions for many-body quantum systems, driven by promising advances in superconductive materials, quantum computing, and other impactful areas. Conclusions: This work explored essential foundational works to help beginners understand a well-established technique that aims to overcome the limitations of classical computing. The use of matrix product states in DMRG algorithms is gaining significant traction in various fields, including quantum computing, machine learning, and statistical mechanics, with the purpose of addressing the challenges related to quantum many-body systems. Acknowledgments: This work was supported by Universidad del Valle under internal project CI. 71344.<hr/>Resumen Contexto: Los sistemas cuánticos de muchos cuerpos han sido un tema prominente durante las últimas dos décadas, sustentando avances en superconductores, átomos ultrafríos y computación cuántica. Este análisis bibliométrico explora conceptos clave, autores influyentes y la significancia actual de una poderosa familia de algoritmos en física computacional, i.e., los algoritmos del grupo de renormalización de matriz de densidad (DMRG). Se pone un énfasis especial en el uso de estados producto de tensor en el desarrollo de simulaciones clásicas de sistemas cuánticos. Métodos: Este artículo presenta una revisión de la literatura obtenida de la base de datos de SCOPUS. Analiza tendencias y enfoques relacionados con el concepto de incertidumbre dentro del marco de desarrollos numéricos para sistemas cuánticos de muchos cuerpos, con énfasis en el modelo de Bose-Hubbard. Esto, con el objetivo de entender mejor la imposición de restricciones adicionales para asegurar la validez de los resultados. Resultados: El número creciente de publicaciones sobre este tema en la última década indica un mayor interés en soluciones para sistemas cuánticos de muchos cuerpos, impulsadas por avances promisorios en materiales superconductores, computación cuántica y otras áreas de impacto. Conclusiones: Este trabajo exploró los trabajos fundamentales para ayudar a los principiantes a comprender una técnica bien establecida que promete sobrepasar las limitaciones de la computación clásica. El uso de los estados de producto de matrices en los algoritmos DMRG está ganando una tracción significativa en numerosos campos, incluyendo la computación cuántica, el aprendizaje automático y la mecánica estadística, con el fin de abordar los desafíos asociados con los sistemas cuánticos de muchos cuerpos. Acknowledgments: Este trabajo fue apoyado por la Universidad del Valle bajo el proyecto interno Cl. 71344.