Scielo RSS <![CDATA[TecnoLógicas]]> http://www.scielo.org.co/rss.php?pid=0123-779920250001&lang=en vol. 28 num. 62 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[La transferencia de tecnología y conocimiento, una misión ineludible de las instituciones de educación superior]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100100&lng=en&nrm=iso&tlng=en <![CDATA[Modeling, Design and Control of a Wind Generation System Based on MPPT with Power Electronic Converter for the Integration of a Turbine to a Microgrid]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100200&lng=en&nrm=iso&tlng=en Resumen La generación de energía a partir de fuentes renovables, en particular la energía eólica, ha emergido como una alternativa crucial y sostenible para satisfacer las demandas de energía actual y futura. Esta investigación tuvo como objetivo realizar el modelado, diseño y control de un sistema electrónico que permitiera la conexión de una turbina a un barraje de corriente continua en una microrred domiciliaria bajo un contexto de eficiencia energética, considerando la variabilidad del viento. La metodología empleada consistió en establecer las características mecánicas y eléctricas del Sistema de Generación Eólica para determinar las expresiones necesarias en el modelado y diseño del convertidor SEPIC (Single-Ended Primary Inductor Converter, por sus siglas en inglés), para seguidamente ahondar en el diseño de los controladores de corriente y velocidad bajo la óptica de dos técnicas diferentes de control: lineal PI (Proporcional-Integral) y no lineal PBC + PI (Control Basado en Pasividad con acción Proporcional Integral). Estos controladores fueron integrados con una etapa de MPPT (Maximum Power Point Tracking, por sus siglas en inglés) de velocidad basada en el algoritmo P&amp;O (Perturb and Observe, por sus siglas en inglés), sujeto a la estrategia de velocidad variable con pitch fijo. Los resultados obtenidos fueron proponer una guía metodológica que demostró su efectividad y eficiencia al mantener al sistema en torno al punto de máxima potencia cuando es sometido a diferentes condiciones de viento. Además, las técnicas de control demostraron su flexibilidad para la integración en energías renovables aumentando la confiabilidad de los sistemas. Se destacó el control no lineal al tener una respuesta más rápida, permitiéndole al MPPT generar más referencias generando menos estrés sobre el eje de la turbina. La teoría PBC permitió el control sobre las corrientes en los inductores del convertidor. Finalmente, se concluye que la topología SEPIC demostró su versatilidad permitiendo el control de sistemas de mayor potencia.<hr/>Abstract Power generation from renewable sources, especially wind power, has emerged as a crucial and sustainable alternative to meet current and future energy demands. The objective of this research was the modeling, design and control, design and control of an electronic system that would allow the connection of a turbine to a direct current busbar in a home microgrid in a context of energy efficiency, considering the variability of the wind. The methodology used consisted of establishing the mechanical and electrical characteristics of the Wind Generation System have been established in order to determine the necessary expressions in the modeling and design of the SEPIC converter (Single-Ended Primary Inductor Converter), to then delve into the design of the current and speed controllers under the optics of two different control techniques: linear PI (Proportional-Integral) and non-linear PBC + PI (Passivity-Based Control with Proportional-Integral action). These controllers were integrated with a speed MPPT (Maximum Power Point Tracking) stage based on the P&amp;O (Perturb and Observe) algorithm, subject to the fixed pitch variable speed strategy. The results obtained were to propose a methodological guide that demonstrated its effectiveness and efficiency by maintaining the system around the maximum power point when subjected to different wind conditions. In addition, the control techniques demonstrated their flexibility for integration into renewable energy, increasing the reliability of the systems. The non-linear control was highlighted by having a faster response, allowing the MPPT to generate more references generating less stress on the turbine shaft. The PBC theory allowed control over the currents in the converter inductors. Finally, it is concluded that the SEPIC topology demonstrated its versatility by allowing the control of higher power systems. <![CDATA[Modeling of Mechanical Properties of Recycled Foamed Asphalt Mix by Nonlinear Regression and Artificial Neural Network and Ranking of Different Designs Using TOPSIS Method]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100201&lng=en&nrm=iso&tlng=en Abstract Foamed asphalt mixtures, created using reclaimed asphalt pavement (RAP) and foamed bitumen, offer energy savings, reduced use of virgin materials, and lower transportation costs, combining the characteristics of rigid and flexible pavements. This study evaluated the mechanical performance of foamed asphalt mixtures with varying bitumen content (1-3 %) and cement content (0-2 %) to identify the optimal combination for pavement applications. Samples were tested for uniaxial compressive strength (UCS), indirect tensile strength (ITS), resilient modulus (RM), and tensile strength ratio (TSR) under laboratory conditions. To predict the results, a nonlinear regression model and an artificial neural network (ANN) were employed. The ANN model demonstrated greater accuracy with significantly lower prediction errors compared to the nonlinear regression model. The Technique for Order of Preference by Similarity to Ideal Solution (TOPSIS) method was then used to select the optimal combination of materials. TOPSIS prioritizes mixtures with the shortest geometric distance to the positive ideal solution (best values for all attributes) and the longest distance from the negative ideal solution. The results showed that UCS and RM increased as the bitumen content increased from 1 % to 2 %, but these properties decreased when the bitumen content exceeded 2 %. In contrast, ITS (dry and saturated) showed continuous improvement with an increase in bitumen content from 1 % to 3 %. TOPSIS analysis identified the mixture with 3 % bitumen and 2 % cement as the optimal combination, achieving the best overall performance in the UCS, ITS, RM, and TSR tests. This study highlights the utility of foamed asphalt mixtures for sustainable construction, demonstrating that ANN predictions and TOPSIS can effectively guide material selection to achieve superior mechanical performance while reducing environmental impact.<hr/>Resumen Las mezclas de asfalto espumado, creadas utilizando pavimento asfáltico reciclado (RAP, por sus siglas en inglés) y betún espumado, ofrecen ahorros de energía, reducción del uso de materiales vírgenes y menores costos de transporte, combinando las características de pavimentos rígidos y flexibles. Este estudio evaluó el rendimiento mecánico de las mezclas de asfalto espumado con diferentes contenidos de betún (1-3 %) y contenidos de cemento (0-2 %) para identificar la combinación óptima para aplicaciones en pavimentos. Se realizaron pruebas de resistencia a la compresión uniaxial (UCS, por sus siglas en inglés), resistencia a la tracción indirecta (ITS, por sus siglas en inglés), módulo resiliente (RM, por sus siglas en inglés) y relación de resistencia a la tracción (TSR, por sus siglas en inglés) en condiciones de laboratorio. Para predecir los resultados se utilizó un modelo de regresión no lineal y una red neuronal artificial (ANN, por sus siglas en inglés). El modelo de ANN demostró una mayor precisión con errores de predicción significativamente menores en comparación con el modelo de regresión no lineal. Luego, se empleó el método de Técnica para el Orden de Preferencia por Similaridad a la Solución Ideal (TOPSIS) para seleccionar la combinación óptima de materiales. TOPSIS prioriza las mezclas con la distancia geométrica más corta a la solución ideal positiva (mejores valores para todos los atributos) y la distancia más larga de la solución ideal negativa. Los resultados mostraron que UCS y RM aumentaron a medida que el contenido de betún aumentaba del 1 % al 2 %, pero estas propiedades disminuyeron cuando el contenido de betún superó el 2 %. En contraste, ITS (seco y saturado) mostró una mejora continua con el aumento del contenido de betún del 1 % al 3 %. El análisis de TOPSIS identificó la mezcla con 3 % de betún y 2 % de cemento como la combinación óptima, logrando el mejor rendimiento general en las pruebas de UCS, ITS, RM y TSR. Este estudio destaca la utilidad de las mezclas de asfalto espumado para la construcción sostenible, demostrando que las predicciones de ANN y TOPSIS pueden guiar eficazmente la selección de materiales para lograr un rendimiento mecánico superior mientras se reduce el impacto ambiental. <![CDATA[Effect of the Inlet Velocity on the Behavior of Gravitational Water Vortex for Electricity Generation]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100202&lng=en&nrm=iso&tlng=en Resumen El cambio climático es impulsado principalmente por el uso de combustibles fósiles. Sin embargo, las energías renovables, como la hidroeléctrica, causan deforestación y desplazamiento de la población, y su energía no suele llegar a zonas remotas. Las plantas de potencia por vórtice gravitacional de agua (GWVPP, por sus siglas en inglés) son una alternativa hidroeléctrica que no altera el cauce y caudal de los ríos y pueden usarse en áreas desconectadas de la red eléctrica. Este trabajo se enfocó en estudiar la influencia de la velocidad de entrada en la morfología de vórtices gravitacionales de agua (GWV, por sus siglas en inglés) y sus propiedades fluidodinámicas como presión, velocidad y fracción volumétrica. La metodología empleada consistió en el uso del software de CFD OpenFOAM para hacer las simulaciones, donde se cambió la velocidad de entrada del canal y se graficaron los contornos de magnitud de velocidad, presión estática y fracción volumétricas en la cuenca. Los resultados de la investigación permitieron encontrar que vórtices bien desarrollados se obtienen a partir de una velocidad de entrada de 0.03 m/s, mientras que las velocidades más altas (0.05 m/s y 0.06 m/s) producen contornos de magnitud de velocidad más uniformes. Aunque todos los vórtices tienen un núcleo de aire en la descarga, las velocidades de entrada altas inducen una mayor probabilidad de formación de vórtices débiles. Finalmente, se concluye que velocidades altas también conllevan mayores fracciones volumétricas al interior de la cuenca, lo cual puede ser práctico para sistemas de generación de energía por vórtices de agua debido a su mayor inercia. La velocidad de entrada también influye en el comportamiento de la altura, curvatura y velocidad tangencial de la superficie libre con el radio.<hr/>Abstract Climate change is primarily driven by the use of fossil fuels. However, renewable energies, such as hydropower, cause deforestation and population displacement, and their energy usually does not reach remote areas. Gravitational Water Vortex Power Plants (GWVPPs) are a hydroelectric alternative that does not alter the course and flow of rivers and can be used in areas not connected to the power grid. This work focused on studying the influence of the inlet velocity on the morphology of water gravitational vortices (GWVs) and their fluid-dynamic properties such as pressure, velocity, and volumetric fraction. The methodology employed consisted of using the OpenFOAM CFD software to run the simulations, where the channel input velocity was changed and the contours of velocity magnitude, static pressure, and volumetric fraction in the basin were plotted. The results of the investigation showed that well-developed vortices were obtained from an input velocity of 0.03 m/s, while the higher speeds (0.05 m/s and 0.06 m/s) produced more uniform velocity magnitude contours. Although all vortices have an air core at discharge, high inlet speeds induce a greater likelihood of weak vortex formation. Finally, the conclusions of this work are that high speeds also lead to higher volume fractions inside the basin, which can be practical for water vortex power generation systems due to their higher inertia. The input velocity also influences the behavior of the height, curvature, and tangential speed of the free surface with the radius. <![CDATA[Flame Photometry, a Precise, Safe, and Reliable Method for Determining Sodium in Fried Corn-Based Snack Matrices]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100203&lng=en&nrm=iso&tlng=en Abstract In the food industry, it is crucial to validate analytical methods for the testing of nutrients and components in processed food products, especially with the recent inclusion of warning labels. This paper introduces a novel methodology for determining sodium levels in fried corn-based snacks. The main objective of this study was to determine the reliability of the method in consistently delivering accurate results. The methodology involved a thorough validation of the flame photometry analytical method to precisely measure the sodium content in corn-based snack foods. The equipment results were linearized for the specific analyte, and its accuracy was determined by calibration curves at four control points using two sodium standards. One standard was standardized control, and the second was prepared by directly diluting the food matrix of interest. The limits of the equipment for sodium detection and quantification were determined. Accuracy was evaluated using experimental recovery percentages. The results of the method’s standardization were evaluated for 10 months by analyzing 150 corn-based snack samples and obtaining measurement data from stable sodium tests compared to the data reported on the packaging. The results indicated the accuracy and linearity of the method through a linear regression curve and analysis of variance, as well as homogeneity and homoscedasticity by applying the t-statistic and the Cochran Q test. Finally, the conclusion is that the method provides fast, safe, reliable, and accurate results. The sample analyzed is in compliance with the regulations for low-sodium foods without a warning label.<hr/>Resumen En la industria alimentaria es crucial validar los métodos analíticos para el análisis de nutrientes y componentes en productos alimenticios procesados, especialmente, con la reciente inclusión del sistema de etiquetado frontal de alimentos. En este artículo se presenta una metodología novedosa para determinar los niveles de sodio en pasabocas fritos a base de maíz. Esta investigación tuvo como objetivo determinar la fiabilidad del método a la hora de proporcionar resultados precisos de forma consistente. La metodología consistió en una validación exhaustiva del método analítico de fotometría de llama para medir con precisión el contenido de sodio en pasabocas a base de maíz. Los resultados del equipo se linealizaron para el analito específico, y su precisión se determinó mediante curvas de calibración en cuatro puntos de control utilizando dos estándares de sodio. Un estándar era un control normalizado, y el segundo se preparó diluyendo directamente la matriz alimentaria de interés. Se determinaron los límites del equipo para la detección y cuantificación de sodio. La precisión se evaluó utilizando porcentajes experimentales de recuperación. Los resultados de la normalización del método se evaluaron durante 10 meses analizando 150 muestras de aperitivos a base de maíz y obteniendo datos de medición de las pruebas de sodio estable comparados con los datos indicados en el envase. Los resultados indicaron la precisión y linealidad del método mediante una curva de regresión lineal y un análisis de varianza, así como la homogeneidad y homocedasticidad aplicando el estadístico t y la prueba Q de Cochran. Finalmente, se concluye que el método proporciona resultados rápidos, seguros, fiables y precisos. Adicionalmente, se encontró que la muestra analizada cumple la normativa sobre alimentos bajos en sodio sin etiqueta de advertencia. <![CDATA[Energy Study of the Panela Production Process in Two Varieties of Saccharum Officinarum L. (Sugarcane) in the Ecuadorian Amazon]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100204&lng=en&nrm=iso&tlng=en Resumen La Amazonía Ecuatoriana es una región en la que se cultiva Saccharum officinarum L. para la producción de panela. Tradicionalmente, este proceso dependía del uso de leña como fuente de energía para la concentración del jugo. Esta práctica generaba un impacto ambiental y afecta la calidad del producto final. El objetivo de esta investigación fue demostrar las ventajas de implementar nuevas tecnologías en la producción panelera. La metodología empleada consistió en la evaluación del proceso energético utilizado en 36 fábricas paneleras de la Amazonía ecuatoriana que utilizaban métodos tradicionales con hornillas. El estudio se enfocó en dos variedades de caña cultivadas en el país: Puerto Rico y Limeña. Se evaluó el índice de madurez y las características físicas de ambas variedades. Adicionalmente, se llevó un ensayo a nivel de laboratorio donde se concentró el jugo de caña utilizando vapor generado por calderas, con el objeto de comparar la eficiencia de este método con el tradicional. Para cada proceso se realizó un balance de masa y energía. Los resultados indicaron que la eficiencia global promedio en el sistema de hornilla fue del 58,50 %, mientras que en el sistema de caldera alcanzó un 83,50 %. En conclusión, estos resultados demostraron que la utilización de calderas en la producción de panela es significativamente más eficiente energéticamente que el método tradicional de hornillas, con la obtención de un incremento positivo del 25 % en la eficiencia global. Esta mejora tecnológica no solo disminuye los impactos ambientales asociados con la producción panelera, sino que también representa una oportunidad para incrementar los ingresos de los productores al optimizar los recursos energéticos.<hr/>Abstract The Ecuadorian Amazon is a region where Saccharum officinarum L. is cultivated for panela production. Traditionally, this process relied on the use of firewood as an energy source for juice concentration. This practice generated an environmental impact and affected the quality of the final product. The objective of this research was to demonstrate the advantages of implementing new technologies in panela production. The methodology employed consisted of evaluating the energy process used in 36 panela factories in the Ecuadorian Amazon that used traditional methods with furnaces. The study focused on two cane varieties cultivated in the country: Puerto Rico and Limeña. The maturity index and physical characteristics of both varieties were evaluated. Additionally, a laboratory-scale trial was conducted where cane juice was concentrated using steam generated by boilers, with the aim of comparing the efficiency of this method with the traditional one. For each process, a mass and energy balance were performed. The results indicated that the average overall efficiency in the furnace system was 58,50 %, while in the boiler system it reached 83,50 %. In conclusion, these results demonstrated that the use of boilers in panela production is significantly more energy efficient than the traditional furnace method, with a positive increase of 25 % in overall efficiency. This technological improvement not only decreases the environmental impacts associated with panela production but also represents an opportunity to increase producers' incomes by optimizing energy resources. <![CDATA[Base Heave Stability in Circular Excavations with Diaphragm Walls in Overconsolidated Clays: Parametric Analysis and Simplified Method]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100205&lng=en&nrm=iso&tlng=en Resumen Recientemente se han implementado métodos sin zanja (trench-less) en obras de saneamiento en Bogotá, Colombia para instalar colectores de más de 3 m de diámetro. Estos emplean pozos circulares profundos sostenidos por muros diafragma fundidos in situ, junto con anillos de concreto, para lanzar y recibir equipos de tunelación. Las condiciones axisimétricas exigen definir con precisión el empotramiento de los muros y verificar la estabilidad ante falla de fondo en arcillas sobreconsolidadas. Esta investigación tuvo como objetivo realizar una evaluación del factor de seguridad frente a la falla de fondo mediante un análisis paramétrico para proponer un método simplificado de evaluación. La metodología empleada consistió en la realización de simulaciones numéricas con elementos finitos, considerando variaciones en el diámetro de la excavación, su altura libre, y la profundidad de empotramiento de los muros diafragma en un perfil de arcillas del suroccidente de Bogotá caracterizado a partir de un sondeo de piezocono con medición de poros (CPTU, por sus siglas en inglés). Los resultados indicaron que el factor de seguridad depende principalmente de las propiedades geométricas de la excavación, de la profundidad de empotramiento del sistema de contención y de la resistencia no drenada de la arcilla bajo el fondo de la excavación. Finalmente, con base en los hallazgos de la modelación paramétrica, se concluye que el efecto de la sobreconsolidación superficial en el factor de seguridad puede expresarse en una ecuación semiempírica incorporando de un coeficiente de ajuste ((), siendo este efecto más significativo en excavaciones de diámetro reducido. Estos resultados permiten mejorar la evaluación de la estabilidad de excavaciones y optimizar estrategias constructivas, favoreciendo soluciones más seguras, sostenibles y resilientes en el diseño de obras subterráneas.<hr/>Abstract Trenchless methods have recently been implemented in Bogotá's sanitation works to install collectors over 3 m in diameter. These use deep circular shafts supported by cast-in-place diaphragm walls and concrete rings for launching and receiving tunneling equipment. Axisymmetric conditions require precise determination of wall embedment depth and verification of bottom failure stability in superficially overconsolidated clays. This article evaluates the safety factor against base heave failure through parametric analysis and proposes a simplified evaluation method. The methodology consisted of performing numerical simulations using finite elements, considering variations in the excavation diameter, its free height, and the embedment depth of the diaphragm walls in a clay profile from southwestern Bogotá, characterized on the basis of an in-situ CPTU test. The results indicated that the safety factor depends mainly on the geometric properties of the excavation, the depth of the embedment of the containment system, and the undrained shear strength of the clay beneath the bottom of the excavation. Finally, based on the results of parametric modeling, it is concluded that the effect of the surficial overconsolidation on the safety factor can be expressed in a semi-empirical equation through an adjustment coefficient (α), being more significant in excavations with a reduced diameter. These results contribute to improving the evaluation of excavation stability and optimizing construction strategies, promoting safer, more sustainable, and more resilient solutions in the design of underground works. <![CDATA[Image Processing for Laser Impact Detection in Shooting Simulators]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100206&lng=en&nrm=iso&tlng=en Abstract Simulation systems play a crucial role in firearms training by offering advantages such as the progressive improvement of shooting skills, reduced logistical costs, ammunition savings, and decreased need for personnel deployment to shooting ranges. A common feature of current systems is the use of wired communication between components, which ensures stability but introduces latency in data transmission. Moreover, wired setups limit their use in outdoor environments due to the lack of access to a power source. This study developed an image-processing-based method to replace live ammunition with a laser-emitting device. The methodology was structured in four phases: (1) system requirements analysis, (2) hardware and software development, (3) system integration with a real firearm, and (4) functional testing in both controlled and open environments. The system incorporates an automatic calibration mechanism that adapts to ambient lighting to ensure accuracy. When the trigger is pulled, the laser activates and projects onto an LCD screen; a camera captures the impact, and an integrated system detects the (x, y) coordinates. As a result, the prototype achieved an accuracy of 95.4% with latency under 80 ms. In conclusion, a portable, wireless system was designed, adaptable to various lighting conditions, consisting of 10 lanes with components specifically designed to integrate with a real firearm-offering a versatile and efficient alternative for training purposes.<hr/>Resumen Los sistemas de simulación desempeñan un papel crucial en el entrenamiento de tiro, al ofrecer ventajas como la mejora progresiva de las habilidades del tirador, reducción de costos logísticos, ahorro de munición y menor necesidad de despliegue de personal a los polígonos de tiro. Un rasgo común en los sistemas actuales es el uso de comunicación por cable entre componentes, lo cual proporciona estabilidad, pero introduce latencia en la transmisión de datos. Además, las configuraciones cableadas limitan su uso en entornos exteriores por la falta de acceso a una fuente de energía. Este estudio desarrolló un método basado en procesamiento de imágenes para reemplazar la munición real por un dispositivo emisor láser. La metodología se estructuró en cuatro fases: (1) análisis de requisitos del sistema, (2) desarrollo de hardware y software, (3) integración del sistema con un arma de fuego real y (4) pruebas funcionales en ambientes controlados y abiertos. El sistema incorpora un mecanismo de calibración automática que se adapta a la iluminación ambiental para garantizar precisión. Al accionar el gatillo, el láser se activa y proyecta sobre una pantalla LCD; una cámara captura el impacto y un sistema integrado detecta las coordenadas (x, y). Como resultado, el prototipo alcanzó una precisión del 95.4 %, con una latencia inferior a 80 ms. En conclusión, se diseñó un sistema portátil, inalámbrico y adaptable a distintas condiciones de luz, compuesto por 10 pistas con componentes diseñados para integrarse con un arma de fuego real, como alternativa versátil y eficiente para el entrenamiento. <![CDATA[Evaluation of a Semi-Continuous Disk-Stack Centrifuge for the Harvest of Tsukamurella Paurometabola C-924 Bacterium]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100207&lng=en&nrm=iso&tlng=en Abstract The disk stack centrifuge is an equipment widely used in the current biotechnological industry because of the multiple advantages it offers, the most important being its high operational flexibility, robustness, and processing speed. The objective of this research was to evaluate whether a semi-continuous disk stack centrifuge can be used to harvest Tsukamurella paurometabola strain C-924 cells, the active ingredient of the ecological bionematicide HeberNem®, to replace the tubular centrifuges currently used. The methodology used consisted of the development of a type 23 factorial statistical design, in which three input parameters were considered: feed rate [Qalim], wet weight of the diluted cell suspension to be centrifuged [PHalim], and time between discharges [tdesc]. The output parameters considered were wet weight of concentrated biomass [PHbio] and recovery percentage [ %Rec], which must have values greater than 600 g/L and 95 %, respectively, to obtain a corresponding final yield with the quality standards established for this biotechnological product. The results obtained were that the average values for PHbio and %Rec were 657.28 g/L and 97.43 %, respectively, which met the quality standards for this stage. The experimental design was optimized to determine the optimal values for the three input parameters, thus obtaining the following values: 64 L/h for Qalim, 176 g/L for PHalim, and a tdesc of 5 min. The semi-continuous disk stack centrifuge evaluated can be successfully implemented in the harvest step of the HeberNem( production process, thus replacing the tubular centrifuges currently employed. The statistical-mathematical programs Statgraphics Centurion® XV.II, Microsoft Excel®, and MATLAB® v7.0.1 were used for data and results processing.<hr/>Resumen La centrífuga de discos constituye un equipo ampliamente utilizado en la industria biotecnológica actual, a causa de las múltiples ventajas que ofrece, siendo las más importantes su elevada flexibilidad operacional, robustez y velocidad de procesamiento. El objetivo de esta investigación fue el de evaluar si una centrífuga de discos del tipo semicontinua puede ser empleada para cosechar células de Tsukamurella paurometabola cepa C-924. principio activo del bionematicida ecológico HeberNem-S®, en sustitución de las centrífugas tubulares utilizadas en la actualidad. La metodología usada consistió en el desarrollo de un diseño estadístico factorial del tipo 23, en el cual se tomaron en cuenta tres parámetros de entrada: caudal de alimentación [Qalim], peso húmedo de la suspensión celular diluida a centrifugar [PHalim], y tiempo entre descargas [tdesc]. Los parámetros de salida tomados en cuenta fueron: peso húmedo de la biomasa concentrada [PHbio] y el porcentaje de recobrado [%Rec], los cuales deben presentar valores superiores a 600 g/L y 95 %, respectivamente, para obtener un rendimiento final acorde con las normas de calidad establecidas para este producto biotecnológico. Los resultados obtenidos fueron que los valores promedios para PHbio y %Rec fueron de 657.28 g/L y 97.43 %, respectivamente, los cuales cumplieron con las normas de calidad para esta etapa. El diseño experimental se optimizó para determinar los valores óptimos para los 3 parámetros de entrada, obteniéndose los siguientes valores: 64 L/h para Qalim, 176 g/L para PHalim y 5 min de tdesc. La centrífuga de discos semicontinua evaluada puede ser implementada satisfactoriamente en la etapa de cosecha del proceso de producción de HeberNem(, reemplazando por tanto las centrífugas tubulares actualmente empleadas. Se emplearon los programas estadístico-matemáticos Statgraphics Centurion® XV.II, Microsoft Excel® y MATLAB® v. 7.0.1 para el procesamiento de los datos y resultados. <![CDATA[Telecommunications Network Infrastructure Sharing: An Assessment from Smart Cities Perspective]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100208&lng=en&nrm=iso&tlng=en Abstract Cartagena de Indias is a Colombian tourist city whose historic center has been declared a World Heritage site. In recent years, the city has experienced significant expansion, capitalizing on the benefits derived from the sharing of the telecommunications network infrastructure (TNI). However, the impact of this infrastructure on the quality of life of citizens remains unknown. The aim of this research was to assess the impact of TNI sharing on the quality of life of citizens of Cartagena de Indias. The methodology consisted of four phases: a review of current regulations, the design of protocols and data collection instruments, data collection, and analysis of results. These phases were conducted using a quantitative exploratory approach, with a non-experimental and cross-sectional design. The results obtained were a list of characteristics describing the condition of TNI, which were used to assess the impact of TNI on quality of life, analyzing both the aesthetic impact on public spaces and the risks it poses to the physical safety of maintenance personnel, citizens, and the infrastructure itself. Finally, it was concluded that the main issue lies in the fact that the condition of most TNI not only negatively impacts urban aesthetics but also poses a risk of safety, affecting the quality of life of those who inhabit or visit the city. These findings highlight the importance of integrating the technologies and strategies characteristic of a smart city to improve the management and monitoring of TNI, optimizing both the safety and the urban experience.<hr/>Resumen Cartagena de Indias es una ciudad turística colombiana cuyo centro histórico ha sido declarado patrimonio de la humanidad. En los últimos años, la ciudad ha experimentado una expansión significativa, aprovechando los beneficios derivados de la compartición de infraestructura de redes de telecomunicación (IRT). Sin embargo, el impacto de esta infraestructura en la calidad de vida de los ciudadanos sigue siendo desconocido. El objetivo de esta investigación fue hacer una valoración del impacto de la compartición de IRT en la calidad de vida de los ciudadanos de Cartagena de Indias. La metodología empleada comprendió cuatro fases: revisión de la normatividad vigente, diseño de protocolos e instrumentos de recolección de información, recolección de datos y análisis resultados. Estas fases se realizaron bajo el enfoque cuantitativo de carácter exploratorio con un diseño no experimental de tipo transeccional. Los resultados obtenidos fueron: un listado de características que describen el estado de la IRT que se usó para hacer una valoración del impacto de la IRT en la calidad de vida, analizando tanto la afectación estética del espacio público como los riesgos que representa para la seguridad física del personal de mantenimiento, los ciudadanos y la propia infraestructura. Finalmente, se concluye que el principal problema radica en que el estado de la mayoría de la IRT no sólo impacta negativamente la estética urbana, sino que además constituye un riesgo para la seguridad, afectando la calidad de vida de quienes habitan o visitan la ciudad. Estos hallazgos resaltan la importancia de integrar tecnologías y estrategias propias de una ciudad inteligente para mejorar la gestión y monitoreo de la IRT, optimizando tanto la seguridad como la experiencia urbana. <![CDATA[Simulation Study on the Power and Sensitivity of Sixteen Normality Tests Under Different Non-Normality Scenarios]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992025000100209&lng=en&nrm=iso&tlng=en Abstract In data analysis, validating the normality assumption is crucial for determining the suitability of applying parametric methods. The objective of this research was to compare the power and sensitivity of sixteen normality tests, classified according to various aspects. The methodology involved simulating data using the Fleishman contamination system. This approach allowed us to evaluate the tests under non-normality conditions across ten distributions with varying degrees of deviation from normality. The results obtained showed that tests based on correlation and regression, such as Shapiro-Wilk and Shapiro-Francia, outperform the others in power, especially for large samples and substantial deviations from normality. For moderate deviations, the D’Agostino-Pearson and skewness tests performed well, while for low deviations, the Robust Jarque-Bera and Jarque-Bera tests were the most effective. Additionally, some tests exhibited high power across multiple distribution types, such as Snedecor-Cochran and Chen-Ye, which performed well for both symmetric platykurtic and asymmetric leptokurtic distributions. These findings offer valuable insights for selecting appropriate normality tests based on sample characteristics, which improves the reliability of statistical inference. Finally, it is concluded that this research demonstrates scenarios in which the most commonly used statistical tests are not always the most effective.<hr/>Resumen En el análisis de datos, la validación del supuesto de normalidad es crucial para determinar si es correcto aplicar métodos paramétricos. El objetivo de esta investigación fue comparar la potencia y sensibilidad de dieciséis pruebas de normalidad, clasificadas según diversos aspectos. La metodología utilizada consistió en simular datos a partir del sistema de contaminación Fleishman para evaluar las pruebas en situaciones de no normalidad y diez distribuciones con distintos grados de desviación de la normalidad. Los resultados obtenidos fueron que las pruebas basadas en la correlación y la regresión, como Shapiro-Wilk y Shapiro-Francia, superaron a las demás en potencia, especialmente, para muestras grandes y desviaciones sustanciales de la normalidad. Para desviaciones moderadas se observó que las pruebas de D’Agostino-Pearson y de sesgo se desempeñaron bien, mientras que, para desviaciones bajas, sobresalieron la prueba robusta de Jarque-Bera y la prueba de Jarque-Bera. Además, algunas pruebas mostraron una elevada potencia en distintos tipos de distribuciones, como Snedecor-Cochran y Chen-Ye para distribuciones platicurticas simétricas, y Snedecor-Cochran y Chen-Ye para distribuciones leptocurticas asimétricas. Estos resultados aportaron información valiosa sobre la selección de pruebas de normalidad adecuadas en función de las características de la muestra, lo que ayuda a los investigadores a mejorar la fiabilidad de la inferencia estadística. En conclusión, este artículo muestra escenarios donde las pruebas estadísticas más conocidas no siempre son las más efectivas.