Scielo RSS <![CDATA[Ingeniería e Investigación]]> http://www.scielo.org.co/rss.php?pid=0120-560920240003&lang=es vol. 44 num. 3 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Reflexión sobre dos años de avances y anticipación de desafíos futuros para Ingeniería e Investigación]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300001&lng=es&nrm=iso&tlng=es <![CDATA[Aplicación de los modelos de Fotosíntesis para determinar el requerimiento de luz en tres clones de cacao]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300002&lng=es&nrm=iso&tlng=es Abstract Numerous articles show that light, water, CO₂, and chlorophyll participate in the wonderful process of photosynthesis, and however, it is necessary to determine the conditions with which the assimilation of CO₂ are optimized in the cocoa crop, a subject with conceptual divergences due to the understory origin of the plant. Photosynthesis in cocoa clones (e.g., CCN51, FSV41, and LK40) to establish their light requirements were characterized. The influence of radiation levels on CO₂ assimilation (A) were evaluated. Measurements were made on the fourth leaf of mature branches using a portable infrared analysis of gas exchange (Ciras-3 PP SYSTEM ®) equipment with a light unit (universal PLC3 -RGBW), and simultaneously the soil moisture was recorded every 5 min. The A/PAR curves were created, and photosynthesis models were evaluated. The fittest models for A/PAR curves to estimate the parameters Amax, light saturation point, light compensation point, dark respiration, and photosynthetic yield (Φ) were selected. It was found that photosynthesis increased consistently when PAR increased but each clone at different rates. The highest A and (Φ) in CCN51, and the lowest in LK40 were shown. The best-fit models for A were that of Kaipiainen (2009), Smith (1935), and Ye (2007). The appropriate light range was set with relation 0.5 A max up to A max. For CCN51, it was 500–1500. For FSV41, it was 250–750. Finally, for LK40, it was 546–1000 μmol photons m² s⁻¹.<hr/>Resumen Cientos de artículos tratan sobre luz, agua, CO₂ y clorofila participan en el proceso maravilloso de la fotosíntesis, sin embargo, es necesario determinar las condiciones que optimizan la asimilación de CO₂ en el cultivo del cacao, tema en el cual se presentan divergencias conceptuales debido a su origen de sotobosque. Se caracterizó la fotosíntesis en clones de cacao para establecer sus necesidades de luz, en CCN 51, FSV 41 y LK 40 se estudió la influencia de la radiación sobre la asimilación de CO₂ (A), las mediciones se realizaron en la cuarta hoja de ramas maduras, utilizando un equipo portátil de análisis de intercambio de gases por infrarrojos (Ciras-3 PP SYSTEM ®) con una unidad de luz (universal PLC3 -RGBW) y simultáneamente se registró la humedad del suelo cada cinco minutos. Se elaboraron las curvas A/PAR, y se probaron modelos de fotosíntesis. Se seleccionaron los modelos de mayor ajuste A/PAR para estimar los parámetros A máxima, punto de saturación de luz, punto de compensación de luz, respiración y rendimiento fotosintético(Φ), Se encontró que la fotosíntesis aumentó con el incremento de la PAR, pero con tasas distintas en cada clon. La A y (Φ) más altas se presentaron en CCN51 y las más bajas en LK40. Los modelos de mejor ajuste para A fueron los de Kaipiainen (2009), Smith (1935) y Ye (2007). El rango de luz apropiado a los niveles de radiación con los que se logra 0.5 Amax hasta Amax, para CCN51 está entre 500 y 1500 µmol fotones m² s⁻¹. Para FSV41, es de 250 a 750 µmol fotones m² s⁻¹. Finalmente, para LK40, fue de 546 a 1000 μmol de fotones m² s⁻¹. <![CDATA[Modelo semisupervisado de aprendizaje profundo para la clasificación de limones]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300003&lng=es&nrm=iso&tlng=es RESUMEN Para los consumidores, el criterio predominante en la selección de frutas es la calidad visual, un factor que los modelos de clasificación emulan cuando emplean imágenes como datos de entrada. La mayoría de los paradigmas de clasificación presuponen un equilibrio entre las clases. En el ámbito de la detección de frutas defectuosas, las bases de datos suelen presentar un desequilibrio pronunciado entre el recuento de frutas sanas y defectuosas. Esta disparidad puede comprometer la solidez de los modelos de clasificación o introducir sesgos derivados de la insuficiencia de datos. En este estudio se introduce un marco de clasificación semisupervisada basado en la detección de anomalías para identificar frutos defectuosos de limón (Citrus aurantifolia). El modelo emplea el error de reconstrucción de una red neuronal autoencoder y una probabilidad de anomalía calculada para localizar muestras dentro de un espacio bidimensional diseñado para tal propósito. A partir de los rangos de parámetros definidos, los limones se clasifican como sanos o defectuosos. El modelo de clasificación propuesto fue entrenado mediante la base de datos de acceso público Fruits360 y evaluado con un conjunto de 118 imágenes de limones nuevas y sin etiquetar. El modelo de clasificación obtuvo una precisión del 94 %, una recuperación del 0,88 y un valor F1 0,91 en el conjunto de pruebas. Estos resultados corroboran que los modelos basados en la detección de anomalías constituyen una solución prometedora a los retos inherentes de las tareas de clasificación no equilibradas; ofrecen la ventaja de requerir datos de entrenamiento mínimos y tiempos de entrenamiento reducido, manteniendo la eficacia incluso cuando el conjunto de datos de evaluación diverge sustancialmente del conjunto de entrenamiento. Así, el modelo propuesto puede servir como herramienta de apoyo en las decisiones de agricultores, productores y consumidores.<hr/>ABSTRACT For consumers, the predominant fruit selection criterion is visual quality, a factor that classification models emulate when employing images as input data. Most classification paradigms presuppose a balance across classes. In the field of defective fruit detection, databases commonly exhibit a pronounced imbalance between healthy and defective fruit counts. Such disparity can compromise the robustness of classification models or introduce biases stemming from insufficient data. This study introduces a semi-supervised classification framework based on anomaly detection to identify defective lime fruits (Citrus aurantifolia). The framework employs the reconstruction error obtained from an autoencoder neural network and a calculated anomaly probability to locate samples within a two-dimensional space designed for such purpose. Based on the defined parameter ranges, the limes are categorized as either healthy or defective. The proposed classification model underwent training utilizing the publicly accessible Fruits360 database and was tested with a set of 118 new and unlabeled lime images. The classification model attained a precision of 94%, a recall of 0.88, and an F1-score of 0.91 across the test set. These results corroborate that models based on anomaly detection constitute a promising solution to the inherent challenges of unbalanced classification tasks. They offer the advantage of requiring minimal training data and reduced training times while maintaining efficacy, even when the evaluation dataset diverges substantially from the training set. Thus, the proposed model can serve as a decision support tool for farmers, producers, and consumers. <![CDATA[Enfoques basados en redes neuronales y lógica difusa para la estimación de la precipitación: una revisión sistemática]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300004&lng=es&nrm=iso&tlng=es ABSTRACT Precipitation estimation at the river basin level is essential for watershed management, the analysis of extreme events and weather and climate dynamics, and hydrologic modeling. In recent years, new approaches and tools such as artificial intelligence techniques have been used for precipitation estimation, offering advantages over traditional methods. Two major paradigms are artificial neural networks and fuzzy logic systems, which can be used in a wide variety of configurations, including hybrid and modular models. This work presents a literature review on hybrid metaheuristic and artificial intelligence models based on signal processes, focusing on the applications of these techniques in precipitation analysis and estimation. The selection and comparison criteria used were the model type, the input and output variables, the performance metrics, and the fields of application. An increase in the number of this type of studies was identified, mainly in applications involving neural network models, which tend to get more sophisticated according to the availability and quality of training data. On the other hand, fuzzy logic models tend to hybridize with neural models. There are still challenges related to prediction performance and spatial and temporal resolution at the basin and micro‑basin levels, but, overall, these paradigms are very promising for precipitation analysis.<hr/>RESUMEN La estimación de la precipitación a nivel de cuenca hidrográfica es esencial para la gestión de cuencas, el análisis de eventos extremos y dinámicas meteorológicas y climáticas, y el modelado hidrológico. En los últimos años se han empleado nuevos enfoques y herramientas como las técnicas de inteligencia artificial para estimar la precipitación, ofreciendo ventajas sobre los métodos tradicionales. Dos paradigmas principales son las redes neuronales artificiales y los sistemas de lógica difusa, que pueden utilizarse en una amplia variedad de configuraciones, incluyendo modelos híbridos y modulares. Este trabajo presenta una revisión de la literatura sobre modelos híbridos metaheurísticos y de inteligencia artificial basados en procesos de señales, centrándose en las aplicaciones de estas técnicas en el análisis y la estimación de la precipitación. Los criterios de selección y comparación utilizados fueron el tipo de modelo, las variables de entrada y salida, las métricas de desempeño y los campos de aplicación. Se identificó un aumento en el número de este tipo de estudios, principalmente en aplicaciones que involucran modelos de redes neuronales, los cuales tienden a volverse más sofisticados según la disponibilidad y calidad de los datos de entrenamiento. Por otro lado, los modelos de lógica difusa tienden a hibridarse con modelos neuronales. Aún existen desafíos relacionados con el desempeño de las predicciones y la resolución espacial y temporal a nivel de cuenca y microcuenca, pero, en general, estos paradigmas son muy prometedores para el análisis de la precipitación. <![CDATA[Programa inter-laboratorio de ensayos para la caracterización física de la arena del Guamo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300005&lng=es&nrm=iso&tlng=es ABSTRACT In soil testing, assessing physical properties is essential for accurately characterizing sands. However, testing results can vary depending on the experimental procedures used and their implementation. A round-robin exercise facilitates the simultaneous analysis of the reproducibility and replicability of the standard methods used to characterize the properties of a specific material. This paper presents the outcomes of the first inter-laboratory testing initiative (i.e., a round-robin exercise) aimed at assessing the results variability of the physical characterization of a sandy soil. Guamo sand, widely utilized in local research and engineering projects in Colombia, was the focus of this study. 11 national academic laboratories participated in the program, conducting seven replicates of grain size distribution, solids specific gravity, and maximum and minimum void ratio tests. The data provided by all participants were analyzed and interpreted using statistical techniques. The results revealed significant differences between the data collected for each physical property, which can be attributed to the intrinsic variability of this sand's natural origin and to the use of diverse testing procedures. These comparisons offer valuable practical insights into the discrepancies between the testing methodologies employed by the participants for soil characterization, and they constitute a comprehensive database for future research or practical applications.<hr/>RESUMEN En los ensayos de suelos, la evaluación de las propiedades físicas es esencial para caracterizar arenas con precisión. Sin embargo, los resultados de los ensayos pueden variar según los procedimientos experimentales utilizados y su implementación. Un ejercicio tipo round-robin facilita el análisis simultáneo de la reproducibilidad y la replicabilidad de los procedimientos estándar utilizados para caracterizar las propiedades de un material específico. Este artículo presenta los resultados de la primera iniciativa de ensayos inter-laboratorios (i.e., un ejercicio round-robin) cuyo objetivo fue evaluar la variabilidad de los resultados en la caracterización física de un suelo arenoso. La arena de Guamo, ampliamente utilizada en proyectos de investigación e ingeniería en Colombia, fue el foco de este estudio. 11 laboratorios académicos nacionales participaron en el programa, realizando siete réplicas de ensayos de distribución de tamaño de grano, gravedad específica de sólidos y de relación de vacíos máxima y mínima. Los datos proporcionados por todos los participantes fueron analizados e interpretados utilizando técnicas estadísticas. Los resultados revelaron diferencias significativas entre los datos recopilados para cada parámetro físico, atribuibles a la variabilidad intrínseca del origen natural de esta arena y a la utilización de diversos procedimientos de ensayo. Estas comparaciones ofrecen valiosas perspectivas prácticas sobre las discrepancias entre las metodologías de prueba empleadas por los participantes para la caracterización del suelo y constituyen una base de datos integral para futuras investigaciones o aplicaciones prácticas. <![CDATA[Estudio estadístico de fallos en calderas de gas domésticas utilizando diversas plataformas de software]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300006&lng=es&nrm=iso&tlng=es ABSTRACT Modern public utilities require a high level of reliability, especially with regard to systems used for heating and hot water supply, such as gas boilers. This paper collected and studied statistical information on the failures of gas boilers of four brands. The data were provided by three service companies that repair gas equipment in Kaliningrad, in the Russian Federation. The specifics of these failures were studied, determining their possible causes, and they were stratified by severity. Service companies typically have to use existing platforms (supplementing them with add-ons) or develop their own software to analyze failure statistics. In this regard, they are interested in the emergence of simple and effective tools for monitoring the quality of gas boiler maintenance and repair work. In this study, we used both the publicly available Scikit-learn library of the Jupyter Notebook environment and a custom program to perform data clustering. The main goal was to conduct a comparative assessment of the reliability of gas boilers of various brands based on the analysis of their failure statistics, as well as to develop a software product that enables such an assessment.<hr/>RESUMEN Las empresas de servicios públicos modernas requieren un alto nivel de fiabilidad, especialmente en lo que respecta a los sistemas utilizados para calefacción y suministro de agua caliente, como las calderas de gas. Este artículo recopiló y estudió información estadística sobre las fallas de calderas de gas de cuatro marcas. Los datos fueron proporcionados por tres empresas de servicio que reparan equipos de gas en Kaliningrado, en la Federación de Rusia. Se analizaron las características específicas de estas fallas, determinando sus posibles causas, y se clasificaron según su gravedad. Las empresas de servicio generalmente deben utilizar plataformas existentes (complementándolas con extensiones) o desarrollar su propio software para analizar estadísticas de fallos. En este sentido, están interesadas en el desarrollo de herramientas simples y efectivas para monitorear la calidad del mantenimiento y las reparaciones de calderas de gas. En este estudio, se utilizó tanto la biblioteca de código abierto Scikit-learn del entorno Jupyter Notebook como un programa personalizado para realizar la agrupación de datos. El objetivo principal fue realizar una evaluación comparativa de la fiabilidad de las calderas de gas de diferentes marcas en función del análisis de sus estadísticas de fallos, así como desarrollar un producto de software que permita dicha evaluación. <![CDATA[Pronóstico de la Demanda de Energía Basado en Heurística con Datos Escasos en el Departamento del Huila, Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300007&lng=es&nrm=iso&tlng=es Abstract Within the framework of the energy transition, electrical distribution grid operators require effective tools to predict the demand of individual users. These tools are necessary for an adequate planning of future generation resources and infrastructure modernization. However, understanding future electricity needs poses a significant challenge, especially in emerging economies, where historical data are manually collected on a monthly or bi‑monthly basis and exhibit a significant amount of missing information. In response to the above, this work proposes a novel heuristics‑based method for medium‑term energy demand forecasting with scarce data. Qualitative and quantitative information was abstracted into a mathematical model representing the trend and noise components of historical energy consumption observations. In addition, external factors were considered as an additional layer for the mathematical model, in order to account for events that could not be foreseen by merely using the dataset. A train‑test data split was proposed to iteratively search for the best parameters to predict electricity demand with respect to different categorical divisions of users (social stratum, rural or urban location, and municipality). For testing and validation, real historical data were used, as provided by the regional distribution system operator (DSO) of the department of Huila, Colombia. The results suggest a trade‑off between accuracy and computational intensity, as well as the fact that a non‑categorical approach leads to the algorithm with the best performance (average absolute error of 1.61%) at a low computational cost.<hr/>Resumen En el marco de la transición energética, los operadores de redes de distribución eléctrica requieren herramientas efectivas para predecir la demanda de usuarios individuales. Estas herramientas son necesarias para un planeamiento adecuado de los recursos futuros de generación y la modernización de la infraestructura. Sin embargo, entender las necesidades futuras de electricidad constituye un desafío significativo, especialmente en economías emergentes donde los datos históricos son recolectados manualmente en períodos mensuales o bimensuales y presentan una cantidad significativa de información faltante. En respuesta a esto, se propone un novedoso método basado en heurística para el pronóstico de la demanda de energía en el mediano plazo con datos escasos. Se abstrajo información cualitativa y cuantitativa en un modelo matemático que representa las componentes de tendencia y ruido en observaciones históricas de consumo de energía. Adicionalmente, se consideraron factores externos como capa adicional para el modelo matemático, en aras de dar cuenta de eventos que no podrían ser previstos solamente con el conjunto de datos. Se propuso una división de datos de entrenamiento y prueba con el fin de buscar iterativamente los mejores parámetros para predecir la demanda de electricidad respecto a diferentes divisiones categóricas de usuarios (estrato social, ubicación rural o urbana y municipio). Para realizar pruebas y validaciones, se utilizaron datos históricos reales proporcionados por el operador del sistema de distribución (OSD) regional del departamento del Huila, Colombia. Los resultados sugieren que hay una compensación entre precisión e intensidad computacional, y que un enfoque no categórico resulta en el algoritmo con un mejor desempeño (error absoluto promedio de 1.61%) y un bajo costo computacional. <![CDATA[Optimización basada en algoritmos genéticos de integración de energía solar fotovoltaica y respuesta a la demanda para la reducción de CO<sub>2</sub> en la energía de carbón de la India]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300008&lng=es&nrm=iso&tlng=es ABSTRACT In 2022, global coal combustion contributed significantly to global pollution, producing 15.22 billion metric tons of carbon dioxide (CO2). This research addresses the urgent challenge of mitigating CO2 emissions in Indian coal power plants by strategically deploying solar photovoltaic (PV) systems and integrating demand response mechanisms. The imperative to reduce greenhouse gas emissions from coal-based electricity generation underscores the critical context of climate change. Emphasizing the vital role of integrating renewable energy-based distributed generators into the existing coal infrastructure, this study positions solar PV technology as a promising solution. Optimal solar PV system allocation is achieved through the implementation of the genetic algorithm technique. Factors such as solar resource availability, electricity demand patterns, and the CO2 intensity associated with coal power generation are considered in this process. The primary research objective is twofold: to minimize CO2 emissions and maximize the integration of solar PV systems while mitigating power losses. The proposed approach considers the intermittent nature of solar power and the dynamic characteristics of demand. Rigorous testing on an IEEE 33-bus system powered by the studied coal power plant reveals a substantial 29.31% reduction in CO2 generation following the implementation of the proposed strategy. This research represents a decisive step towards fostering a more sustainable and environmentally friendly energy landscape. Our study's outcomes offer valuable insights for policymakers and stakeholders in the energy sector, providing a robust foundation for the advancement of environmentally conscious practices within the coal power industry.<hr/>RESUMEN En 2022, la combustión global de carbón contribuyó significativamente a la contaminación mundial, produciendo 15.22 mil millones de toneladas métricas de dióxido de carbono (CO2). Esta investigación aborda el desafío urgente de mitigar las emisiones de CO2 en las plantas de energía de carbón en India mediante el despliegue estratégico de sistemas solares fotovoltaicos (FV) y la integración de mecanismos de respuesta a la demanda. La necesidad imperiosa de reducir las emisiones de gases de efecto invernadero derivadas de la generación eléctrica a base de carbón subraya el contexto crítico del cambio climático. Destacando el papel esencial de integrar generadores distribuidos basados en energías renovables en la infraestructura de carbón existente, este estudio posiciona la tecnología solar FV como una solución prometedora. La asignación óptima de sistemas solares FV se logra mediante la implementación de la técnica de algoritmo genético. En este proceso se consideran factores como la disponibilidad de recursos solares, los patrones de demanda eléctrica y la intensidad de CO2 asociada a la generación de energía por carbón. El objetivo principal de la investigación es doble: minimizar las emisiones de CO2 y maximizar la integración de sistemas solares FV mientras se mitigan las pérdidas de energía. El enfoque propuesto tiene en cuenta la naturaleza intermitente de la energía solar y las características dinámicas de la demanda. Pruebas rigurosas en un sistema IEEE de 33 nodos alimentado por la planta de energía de carbón estudiada revelan una reducción sustancial del 29.31 % en la generación de CO2 tras la implementación de la estrategia propuesta. Esta investigación representa un paso decisivo hacia la promoción de un panorama energético más sostenible y respetuoso con el medio ambiente. Los resultados de nuestro estudio ofrecen valiosos conocimientos para los formuladores de políticas y las partes interesadas del sector energético, proporcionando una base sólida para el avance de prácticas ambientalmente responsables dentro de la industria de energía a base de carbón. <![CDATA[Efecto de la glicerina y la urea en la síntesis de biopolímeros a base de almidón de papa y yuca: análisis de dureza, micrografía y termogravimetría]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300009&lng=es&nrm=iso&tlng=es ABSTRACT Petroleum-derived polymers used in everyday products generate large amounts of waste and negative environmental impacts due to their slow decomposition. To address this issue, other options have been studied, such as biopolymers based on starch, a polysaccharide formed by chains of amylose and amylopectin that can be linked together by heat and water to form a polymeric matrix similar to petroleum-derived plastics. In this study, glycerin and urea were used as plasticizing additives to improve the flexibility of biopolymers. The objective was to expand knowledge on biopolymers and their potential applications as an alternative to petroleum-derived plastics. A quantitative and qualitative factorial experimental design was implemented which consisted of three factors: the percentage of starch type, the percentage of plasticizer type, and the total percentage of plasticizers. Once the biopolymers were synthesized, they were characterized through thermal stability tests using thermogravimetric, hardness, and micrography analysis. The results indicated that glycerin increases the flexibility of the biopolymer, while urea increases its hardness. The working temperature of the biopolymer is below 130 °C, causing no disintegration of the material. In addition, it was identified that the presence of gas inclusions, both internal and superficial, can significantly affect the mechanical properties of the biopolymers. In conclusion, it was demonstrated that starch-based biopolymers with plasticizing additives have the potential to become a viable and sustainable alternative to petroleum-derived plastics in everyday products.<hr/>RESUMEN Los polímeros derivados del petróleo que se utilizan en productos de uso cotidiano generan grandes cantidades de residuos y un impacto ambiental negativo debido a su lenta descomposición. Para combatir este problema, se han estudiado otras opciones como los biopolímeros a base de almidón, un polisacárido formado por cadenas de amilosa y amilopectina que pueden enlazarse mediante calor y agua para formar una matriz polimérica similar a los plásticos derivados del petróleo. En este estudio se utilizó glicerina y urea como aditivos plastificantes para mejorar la flexibilidad de los biopolímeros. El objetivo fue ampliar el conocimiento sobre los biopolímeros y sus posibles aplicaciones como alternativa a los plásticos derivados del petróleo. Se implementó un diseño experimental factorial cuantitativo y cualitativo que constaba de tres factores: el porcentaje del tipo de almidón, el porcentaje del tipo de plastificantes y el porcentaje total de plastificantes. Una vez sintetizados los biopolímeros, se caracterizaron mediante ensayos de estabilidad térmica con TGA, dureza y micrografía. Los resultados indicaron que la glicerina aumenta la flexibilidad del biopolímero, mientras que la urea aumenta su dureza. La temperatura de trabajo del biopolímero se encuentra por debajo de los 130 °C, sin generar desintegración en el material. Además, se identificó que la presencia de inclusiones gaseosas, tanto internas como superficiales, puede incidir significativamente en las propiedades mecánicas de los biopolímeros. En conclusión, se demostró que los biopolímeros a base de almidón con aditivos plastificantes tienen el potencial de convertirse en una alternativa viable y sostenible a los plásticos derivados del petróleo en productos de uso cotidiano. <![CDATA[Investigación de los efectos de los métodos de corte para espumas metálicas de aluminio]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300010&lng=es&nrm=iso&tlng=es ABSTRACT The quality of foam metal materials, which are commonly used in industrial applications due to their unique properties, increasingly relies on secondary processing. Metal foams are produced as plates or in the desired shape via direct or indirect foaming. Given their intended use, the primary challenge lies in determining how to cut them with the necessary precision and join them with sufficient strength. However, the most difficult aspect is cutting them in the required shapes and combining them with fixed or removable securing mechanisms. This work involved cutting two sample types: a 10 mm thick AlMgSi foam with a density of 0.5 g/cm³, using a laser cutter, and a 19 mm thick AlMgSi sandwich structure with a 1 mm thick aluminum outer plate via wire electric discharge machining (WEDM). In addition, the results of manual cutting and angle grinding, which are often utilized in production, were analyzed through scanning electron microscopy. Under certain suboptimal conditions, laser cutting caused aluminum to dissolve into the cavities and form burrs beneath the cutting edge. In contrast, when accurate and undistorted cellular architecture is essential, WEDM is very efficient, even though it is 200 times slower than laser cutting. Hand-sawing caused cellular fractures and frequent dispersion, so it is suitable for applications that do not necessitate accuracy.<hr/>RESUMEN La calidad de los materiales de espuma metálica, que se utilizan comúnmente en aplicaciones industriales debido a sus propiedades únicas, depende cada vez más del procesamiento secundario. Las espumas metálicas se producen en placas o en la forma deseada mediante espumación directa o indirecta. Dado su uso previsto, el principal desafío radica en determinar cómo cortarlas con la precisión necesaria y unirlas con la fuerza suficiente. Sin embargo, el aspecto más difícil es cortarlas en las formas requeridas y combinarlas con mecanismos de sujeción fijos o removibles. Este trabajo involucró el corte de dos tipos de muestras: una espuma de AlMgSi de 10 mm de grosor con una densidad de 0.5 g/cm³, utilizando un cortador láser, y una estructura tipo sándwich de AlMgSi de 19 mm de grosor con placa exterior de aluminio de 1 mm de grosor mediante mecanizado por electroerosión por hilo (WEDM). Además, los resultados del corte manual y del rectificado angular, que a menudo se utilizan en la producción, se analizaron a través de microscopía electrónica de barrido. En ciertas condiciones subóptimas, el corte láser hizo que el aluminio se disolviera en las cavidades y formara rebabas debajo del borde de corte. En contraste, cuando una arquitectura celular precisa y no distorsionada se hace esencial, el WEDM es muy eficiente, a pesar de ser 200 veces más lento que el corte láser. El corte manual causó fracturas celulares y dispersión frecuente, por lo que es adecuado para aplicaciones que no requieran precisión. <![CDATA[Identificación del comportamiento dinámico no lineal de un quadcopter F450 utilizando un modelo NARX basado en redes neuronales artificiales]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300011&lng=es&nrm=iso&tlng=es ABSTRACT A quadcopter drone is an extremely complex, multi-variable, highly nonlinear, and underactuated system characterized by its six degrees of freedom controlled by only four actuators as inputs. This highlights the importance of employing advanced algorithms for its identification. Therefore, this research aimed to use a nonlinear neural network model to identify the dynamic behavior of a quadcopter based on the commercially available F450 frame. Data acquisition involved four experiments in a controlled environment for both roll and pitch angles, recording the signal duty cycles and the quadcopter's attitude. Then, the selected non-linear autoregressive neural network model with exogenous inputs (N-NARX) model was trained using the acquired data along with the Levenberg-Marquardt algorithm. Afterwards, the response of the quadcopter's actual attitude angles from the validation dataset was analyzed against the predicted values generated by the neural model, obtaining an 89.44% fit with an RMSE of 2.25% for the roll angle and an 89.29% fit with an RMSE of 2.20% for the pitch angle. Both attitude angles were subjected to a statistical cross-correlation validation to assess their relationship at different time lags, observing a solid settling within the confidence bands at a 95% level. It was concluded the proposed neural network model can effectively capture the quadcopter's nonlinear dynamics.<hr/>RESUMEN El dron quadcopter es un sistema extremadamente complejo, multivariable, altamente no lineal y subactuado, caracterizado por sus seis grados de libertad controlados por solo cuatro actuadores como entradas. Esto resalta la importancia de emplear algoritmos avanzados para su identificación. Por lo tanto, esta investigación tuvo como objetivo utilizar un modelo de red neuronal no lineal para identificar el comportamiento dinámico de un quadcopter basado en el frame comercial F450. La adquisición de datos involucró cuatro experimentos en un entorno controlado para los ángulos de alabeo y cabeceo, registrando los ciclos de trabajo de la señal y la actitud del quadcopter. Luego, se entrenó el modelo seleccionado de red neuronal autoregresiva no lineal con entradas exógenas (N-NARX), utilizando los datos adquiridos junto con el algoritmo de Levenberg-Marquardt. Posteriormente, se analizó la respuesta de los ángulos de actitud reales del quadcopter en el conjunto de datos de validación frente a los valores predichos generados por el modelo neuronal, obteniendo un ajuste del 89.44 % con un RMSE del 2.25 % para el ángulo de alabeo y un ajuste del 89.29 % con un RMSE del 2.20 % para el ángulo de cabeceo. Ambos ángulos de actitud fueron sometidos a una validación estadística de correlación cruzada para evaluar su relación en diferentes desfases temporales, observándose una sólida estabilización dentro de las bandas de confianza al nivel del 95 %. Se concluyó que el modelo de red neuronal propuesto puede capturar de manera efectiva las dinámicas no lineales del quadcopter. <![CDATA[Estudio del comportamiento mecánico y refuerzo del RCSACC tras su exposición a temperaturas elevadas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300012&lng=es&nrm=iso&tlng=es ABSTRACT Rapid calcium sulfoaluminate cement concrete (RCSACC) has received increased attention of late because it can be manufactured with less CO2 emissions than ordinary Portland cement. In previous studies, RCSACC performed poorly when subjected to elevated temperatures, to which fiber-reinforced concrete (FRC) is a potential alternative. This study investigated the impact of incorporating two types of fibers, i.e., copper-plated steel microfilament (CPM) and shear corrugated steel (SC), on the engineering, mechanical, and microstructural features of RCSACC after exposure to elevated temperatures. Pore size distribution, microstructure, and mechanical properties were tested after exposure to temperatures of 100, 200, and 300 °C. The content of each type of fibers represented 1% of the concrete. The results showed that the mechanical properties were affected by the addition of either type of steel fibers. Adding CPM or SC steel fibers could ensure an adequate resistance of RCSACC when exposed to high temperatures, in addition to improving its residual mechanical behavior, spalling resistance, and ductility after heating. Steel fibers contribute to enhancing both mechanical properties and resistance to heating effects. However, adding steel fibers also appears to increase microstructure damage with heat, reduce workability, entrap air and water, and reduce cracking related to drying shrinkage.<hr/>RESUMEN Últimamente, el hormigón de cemento sulfoaluminato de calcio rápido (RCSACC) ha recibido una mayor atención porque puede fabricarse con menos emisiones de CO2 que el cemento Portland ordinario. En estudios anteriores, el RCSACC presentó un mal desempeño cuando se sometió a temperaturas elevadas, para lo cual el hormigón reforzado con fibra (FRC) es una potencial alternativa. Este estudio investigó el impacto de la incorporación de dos tipos de fibras, i.e., microfilamento de acero chapado en cobre (CPM) y acero corrugado (SC), en las características de ingeniería, mecánicas y microestructurales del RCSACC tras su exposición a temperaturas elevadas. Se probaron la distribución del tamaño de los poros, la microestructura y las propiedades mecánicas tras la exposición a temperaturas de 100, 200 y 300 °C. El contenido de cada tipo de fibras representaba el 1 % del hormigón. Los resultados mostraron que las propiedades mecánicas se vieron afectadas por la adición de cualquiera de los dos tipos de fibras de acero. La adición de fibras de acero CPM o SC podría garantizar una resistencia adecuada del RCSACC cuando se expone a altas temperaturas, además de mejorar su comportamiento mecánico residual, su resistencia al desconchado y su ductilidad después del calentamiento. Las fibras de acero contribuyen a mejorar tanto las propiedades mecánicas como la resistencia a los efectos del calentamiento. Sin embargo, la adición de fibras de acero también parece aumentar el daño a la microestructura con el calor, reducir la trabajabilidad, atrapar el aire y el agua, y reducir el agrietamiento relacionado con la contracción por secado. <![CDATA[Detección de daños basada en impedancia electromecánica mediante métodos de aprendizaje automático]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300013&lng=es&nrm=iso&tlng=es ABSTRACT Electromechanical impedance-based structural health monitoring has been the subject of extensive research in recent decades. The method's low cost and ability to detect minor structural damages make it an appealing alternative to other non-destructive techniques. Ongoing research on damage detection approaches continues to be a topic of interest in relation to the electromechanical impedance method. This work proposes the use of the K-Means, Decision Tree, and Random Forest algorithms to distinguish between four structural conditions in an aluminum beam. These techniques were applied to raw impedance data and a dataset reduced via principal components analysis. The findings revealed that the compressed dataset improved the accuracy of all models, except for the Random Forest approach, whose accuracy decreased by 2.9%. The K-Means algorithm was most affected by the reduction in dimensionality, with a 105.9% increase in accuracy. The Decision Tree and Random Forest methods yielded outstanding outcomes, comparable or superior to other state-of-the-art approaches. This makes them a compelling choice for detecting damage using electromechanical impedance data, even when using raw data as the input information.<hr/>RESUMEN El monitoreo de la salud estructural basado en la impedancia electromagnetica ha sido objeto de investigacion exhaustiva en las ultimas decadas. El bajo coste del metodo y su capacidad para detectar daños estructurales menores lo convierten en una alternativa atractiva a otras tecnicas no destructivas. La investigacion actual sobre enfoques de deteccion de daños sigue siendo un tema de interes en lo que concierne al metodo de impedancia electromecanica. En este trabajo se propone utilizar los algoritmos K-Means, Decision Tree y Random Forest para diferenciar entre cuatro condiciones estructurales en una viga de aluminio. Estas tecnicas se aplicaron a datos de impedancia en bruto y a un conjunto de datos reducido mediante analisis de componentes principales. Los resultados revelaron que el conjunto de datos comprimido mejoro la precision de todos los modelos, excepto en el caso del metodo Random Forest, cuya precision disminuyo en un 2.9%. El algoritmo K-Means fue el mas afectado por la reduccion de la dimensionalidad, con un aumento del 105.9% en la precision. Los metodos Decision Tree y Random Forest produjeron resultados sobresalientes, comparables o superiores a otros enfoques de vanguardia. Esto los convierte en una opcion convincente para detectar daños a traves de datos de impedancia electromecanica, incluso cuando se utilizan datos en bruto como informacion de entrada. <![CDATA[Plan estratégico basado en sistemas inteligentes para el juego de dominó por parte de un robot humanoide]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300014&lng=es&nrm=iso&tlng=es ABSTRACT The application of intelligent systems in humanoid robots provides research and development alternatives, as is the case with human-robot interaction. This paper focuses on the design and implementation of an intelligent system in the NAO robot to plan and execute moves in the board game known as dominoes. This system uses the NAO robot's vision to determine the distribution of tiles on the board, as well as those available in hand. The appropriate moves are planned using a computational intelligence technique, and a kinematics model executes them. The results show that the vision system has an average error of 5.62\%, in addition to 3.37\% for the decision-making system and 7.87\% for the kinematics of the robot. This leads to the NAO robot being capable of making successful plays through the proposed system, with an average effectiveness of 83.15\%.<hr/>RESUMEN La aplicación de sistemas inteligentes en robots humanoides brinda alternativas de investigación y desarrollo, como es el caso de la interacción humano-robot. Este trabajo se enfoca en el diseño e implementación de un sistema inteligente en el robot NAO para planificar y ejecutar movimientos en el juego de mesa conocido como dominó. Este sistema utiliza el sistema de visión del robot NAO para determinar la distribución de fichas en el tablero y de las disponibles en la mano. Los movimientos adecuados se calculan mediante una técnica de inteligencia computacional, y un modelo de cinemática los ejecuta. Los resultados muestran que el sistema de visión tiene un error promedio del 5.62\%, así como del 3.37\% para el sistema de decisión y de 7.87\% para la cinemática del robot. Esto lleva a que, a través del sistema propuesto, el robot NAO sea capaz de realizar jugadas exitosas con una efectividad promedio del 83.15\%. <![CDATA[Conecta2: una aplicación en Android para la comunicación entre sobrevivientes de desastres a través de una red <em>ad hoc</em>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300015&lng=es&nrm=iso&tlng=es Abstract Natural and man‑made disasters often render network infrastructure inoperative, severely hampering communication between rescue workers and survivors. While smartphone‑based ad hoc networks are frequently proposed as a solution, the implementation of mobile applications optimized for disaster scenarios remains a challenge. This study aims to address this gap by developing Conecta2, a prototype Android application for communication in post‑disaster situations. The application establishes an ad hoc network using Wi‑Fi Direct or Bluetooth in order to enable communication between nearby smartphones without relying on regular network infrastructure. Conecta2 allows users to transmit text, photos, and audio, as well as to estimate the location of nearby devices running the same software. Experimental tests were conducted to evaluate the performance of the application in simulated disaster scenarios. Results demonstrate that Conecta2 effectively facilitates communication between smartphones in situations analogous to disaster aftermath. The ability of the application to locate survivors via their smartphones also aids search and rescue efforts. In conclusion, Conecta2 offers a viable communication alternative for post‑disaster scenarios, potentially improving the effectiveness of disaster response and survivor location efforts.<hr/>Resumen Los desastres naturales y provocados por el hombre a menudo dejan inoperante la infraestructura de red, lo que dificulta gravemente la comunicacio´ n entre los trabajadores de rescate y los sobrevivientes. Si bien las redes ad hoc basadas en tele´fonos inteligentes se proponen con frecuencia como una solucio´ n, la implementacio´ n de aplicaciones mo´ viles optimizadas para escenarios de desastre sigue siendo un desaf´ıo. Este estudio tiene como objetivo abordar esta brecha mediante el desarrollo de Conecta2, un prototipo de aplicacio´ n Android para la comunicacio´ n en situaciones posteriores a un desastre. La aplicacio´ n establece una red ad hoc utilizando Wi‑Fi Direct o Bluetooth, en aras de permitir la comunicacio´ n entre tele´fonos inteligentes cercanos sin depender de la infraestructura de red regular. Conecta2 permite a los usuarios transmitir texto, fotos y audio, as´ı como estimar la ubicacio´ n de dispositivos cercanos que ejecutan el mismo software. Se realizaron pruebas experimentales para evaluar el rendimiento de la aplicacio´ n en escenarios de desastre simulados. Los resultados demuestran que Conecta2 facilita eficazmente la comunicacio´ n entre tele´fonos inteligentes en situaciones ana´logas a las posteriores a un desastre. La capacidad de la aplicacio´ n para localizar sobrevivientes a trave´s de sus tele´fonos inteligentes tambie´n ayuda en los esfuerzos de bu´ squeda y rescate. En conclusio´ n, Conecta2 ofrece una alternativa de comunicacio´ n viable para escenarios post‑desastre, mejorando potencialmente la efectividad de la respuesta al desastre y los esfuerzos de localizacio´ n de sobrevivientes. <![CDATA[Transformación digital: percepciones y adaptación post pandemia en el sector educativo -- un estudio de caso]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092024000300016&lng=es&nrm=iso&tlng=es ABSTRACT The digital transformation of the public sector seeks to create an effective and efficient government through technology. In the education sector, the pandemic accelerated the adaptation process and the use of new technologies, evidencing, at a global level, complex situations related to university activities and their adaptation to virtuality. This work presents a study conducted at Universidad Nacional de Colombia following the 2020 crisis, which sought to determine the perception of digital transformation within the institution. A study framed within a descriptive methodology was conducted to validate the advances and challenges that persist in relation to the digitization of the university's activities. All this was based on a non-probabilistic sample of 519 people from the academic community. The main results indicate the existence of context-related aspects that facilitate or represent barriers regarding the use of digital tools, such as age, territory, and university campus. The main issue associated with information and communication technologies is Internet access, followed by physical access to related infrastructure and the lack of skills. In addition, we observed a preference for mixed modalities by students, who indicated a desire for change in the education model. Lastly, the applied instrument is highly reliable, which is why it can be used and complemented for future studies under more favorable conditions.<hr/>RESUMEN La transformación digital del sector público busca crear un gobierno eficaz y eficiente a través de la tecnología. En el sector educativo, la pandemia aceleró el proceso de adaptación y el uso de nuevas tecnologías, evidenciando, a nivel global, situaciones complejas relacionadas con el quehacer universitario y su adaptación a la virtualidad. Este trabajo presenta un estudio elaborado en la Universidad Nacional de Colombia, posterior a la crisis del 2020, que buscó establecer la percepción de la transformación digital en la entidad. Se desarrolló un estudio con una metodología descriptiva, en aras de validar los avances y retos que persisten en relación con la digitalización de la universidad en sus actividades. Esto, a partir de una muestra no probabilística de 519 personas de la comunidad académica. Los principales resultados indican que existen aspectos de contexto que facilitan o representan barreras respecto al uso de herramientas digitales, tales como la edad, el territorio y la sede universitaria. El principal problema respecto a las tecnologías de la información y las comunicaciones es el acceso a Internet, seguido del acceso físico a la infraestructura relacionada y la falta de habilidades. Además, se percibió una preferencia por la modalidad mixta por parte de los jóvenes, indicando un deseo de cambio en el modelo educativo. Por último, el instrumento utilizado es altamente fiable, por lo que puede ser utilizado y complementado para futuros estudios en condiciones más favorables.