Scielo RSS <![CDATA[Ingeniería]]> http://www.scielo.org.co/rss.php?pid=0121-750X20210003&lang=en vol. 26 num. 3 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[¿Investigar por investigar?]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300316&lng=en&nrm=iso&tlng=en <![CDATA[Approach to the behavior of cash flow with Systems Dynamics]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300318&lng=en&nrm=iso&tlng=en Resumen Contexto: El flujo de efectivo es un elemento esencial para la toma de decisiones dentro de las organizaciones, dado que al conocer el flujo de efectivo de un periodo se puede determinar si se están generando ganancias o pérdidas. Por lo tanto, es de vital importancia conocer el comportamiento del flujo de efectivo para disminuir el riesgo de presentar déficit de efectivo en el futuro. Método: Se realizó una revisión bibliográfica identificando características y variables que intervienen en el flujo de efectivo de una organización común. Además, se planteó un modelo que permite representar el comportamiento del flujo de efectivo en las organizaciones utilizando las variables encontradas en la revisión bibliográfica y el cual se desarrolla mediante dinámica de sistemas Resultados: En Se obtuvo un modelo que se desarrolla mediante dinámica de sistemas en el que se integran las variables del flujo de efectivo y, a su vez, permite crear escenarios de simulación en los que se modifican estas variables y se determina el comportamiento del flujo de efectivo en el tiempo. Conclusiones: Con una correcta parametrización de variables, utilizando cifras y estados reales, es posible emplear el modelo propuesto como una plataforma de experimentación para estimar el impacto de implementar distintas políticas orientadas a mantener el nivel del flujo de efectivo y evaluar su viabilidad.<hr/>Abstract Context: Cash flow is an essential element for decision-making within organizations, since knowing the cash flow of a period can determine if profits or losses are being generated. Therefore, it is vitally important to know the behavior of the cash flow to reduce the risk of presenting future cash deficits. Method: Se A bibliographic review was carried out identifying characteristics and variables that intervene in the cash flow of a common organization. In addition, a model is proposed that allows representing the behavior of cash flow in organizations using the variables found in the bibliographic review and which is developed using system dynamics. Results: A model was developed that is developed through system dynamics in which the cash flow variables are integrated, and in turn, allows the creation of simulation scenarios in which the cash flow variables are modified and the behavior of the flow is determined cash on time. Conclusions: With the correct parameterization of variables, using real figures and statements, it is possible to use the proposed model as an experimentation platform to evaluate the impact of implementing different policies aimed at maintaining the level of cash flow and evaluating its viability. <![CDATA[Stochastic Logistic Models Applied to the Supply Chain: A Literature Review]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300334&lng=en&nrm=iso&tlng=en Resumen Contexto: El análisis de la complejidad de los sistemas conlleva la evolución de los modelos de representación de la realidad, la logística ha avanzado de un contexto empresarial a la cadena de suministro, los modelos básicos de logística con parámetros determinísticos requieren representar el comportamiento real estocástico. En este sentido, aparecen la combinación de los modelos de inventario, la localización y el ruteo con enfoque estocástico aplicados a cadenas de suministro. Método: Se desarrolló una revisión sistemática de la literatura en las bases de datos bibliográficas ScienceDirect, ScholarGoogle, SpringerLink, Scopus, SemanticScholar y Scielo, así como en ResearchGate. De los 79 artículos referenciados, el 65 % comprenden entre el 2015 y 2019. Resultados: Se identifican y describen los modelos, a partir de lo cual se propone una taxonomía en cuatro combinaciones, tres de modelos diádicos: LIP, IRP, LRP y un modelo tríadico: LIRP. Se identifican los parámetros estocásticos utilizados en los modelos, los tipos de modelos, los métodos de solución, las funciones objetivo contempladas y el número de eslabones de la cadena contemplados, a partir de los cuales se proponen taxonomías de los diferentes tipos de modelos. Por último, se presentan líneas de trabajo para futuras investigaciones. Conclusiones: La evolución de modelos determinísticos a estocásticos representa un incremento en la complejidad, lo que obliga a desarrollar nuevos métodos de solución con capacidad de encontrar soluciones factibles. Ha sido de reciente interés el desarrollo de modelos y problemas con medidas de desempeño ambiental, social y riesgo humanitario, en el último periodo toman relevancia modelos tríadicos multiproducto y multiperiodo.<hr/>Abstract Context: The analysis of the complexity of the systems involves the evolution of the models that representation of reality, logistics has advanced from a business context to the supply chain, basic models of logistics with deterministic parameters must go represent real behavior, stochastic. In this context, the combination of inventory, location and routing models with a stochastic approach applied to supply chains appears. Method: A systematic review of the literature was developed in the bibliographic databases, ScienceDirect, ScholarGoogle, SpringerLink, Scopus, SemanticScholar, ResearchGate and Scielo, of the 72 referenced articles, 65 % between 2015 and 2019. Results: From the models identified and described, a taxonomy of the models is proposed and classified into 4 kinds, three dyadic models Location Inventory Problem (LIP), Inventory Routing Problem (IRP), Location Routing problem (LRP) and a triadic model Location Inventory Routing Problem (LIRP). The stochastic parameters used in the models, the types of models, the solution methods, the contemplated objective functions, and the number of echelons in the supply chain are established, from which taxonomies of the different types of models are proposed. Lines of work for future research is presented. Conclusions: The evolution from deterministic to stochastic models represents an increase in complexity which forces the development of new solution methods with ability to find feasible solutions. The development of models with news measurements of performance as environmental, social and humanitarian have been of recent interest. In the last period, triadic multi-product and multi-period models take on relevance. <![CDATA[Technical and Economic Scenario for the Integral Small-Scale Valorization of Orange Waste in Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300367&lng=en&nrm=iso&tlng=en Resumen Contexto: Se estudió la valoración integral de cáscara de naranja bajo un esquema de biorrefinería en el que se obtiene aceite de naranja (con hidrolato como subproducto y la valorización del aceite mediante la extracción de limoneno en etapas posteriores), pectina y harina para uso como suplemento en alimentación animal. Método: El proceso consistió en cuatro etapas generales: i) extracción y obtención de aceite e hidrolato de naranja mediante el proceso de arrastre de vapor, ii) obtención de limoneno, iii) extracción de pectina por medio de hidrolisis ácida, y iv) obtención de pienso a partir de procesos de centrifugado y secado. Resultados: Los experimentos y las caracterizaciones se realizaron a escala laboratorio, donde a partir de 700 g de cáscara (húmeda) se obtuvieron 3,34 mL de aceite (80-85 % limoneno), alrededor de 500 mL de hidrolato y cerca de 260 g de residuos sólidos (secos). De estos últimos, a partir de lotes de 50 g de material seco, se obtuvieron 9,7 g de pectina y alrededor de 40,3 g de harina para suplemento en alimentación animal. Conclusiones: Según el análisis técnico-económico para la escala de producción utilizada y para el contexto nacional, se logran indicadores positivos como el valor presente neto (27’271.933) y la tasa interna de retorno (5,27 %), que muestran la alternativa de inversión interesante como para ser considerada una opción de valoración de residuos por pequeños y medianos productores de cítricos en el país.<hr/>Abstract Context: The integral valuation of orange peel was studied under a biorefinery scheme where orange oil (with hydrolate as a by-product and the valorization of the oil through the extraction of limonene in later stages), pectin and flour were obtained for use as a supplement in animal feeding. Method: The process consisted of four general stages: i) extracting and obtaining orange oil and hydrolate through steam distillation, ii) obtaining limonene, iii) extracting pectin through the acid hydrolysis method, and iv) obtaining animal food from centrifugation and drying processes. Results: The experiments and characterizations were carried out at the laboratory scale, from 700 g of peel (wet) 3,34 mL of oil (80-85 % limonene), about 500 mL of hydrolate and about 260 g of solid residues (dry) were obtained. From these, around 9,7 g of pectin and around 40,3 g of flour for animal food supplements were obtained from batches of 50 g of dry material. Conclusions: According to the technical-economic analysis for the scale of production used, as well as for the national context, positive indicators such as the net present value (27’271.933) and the internal rate of return (5,27 %) were achieved, which show an interesting investment alternative to be considered as a waste valorization option for small and medium citrus producers in the country. <![CDATA[Characterization of Traffic for Live Video Streaming Services on DASH in 4G Networks Based on Syntactic Analyzers]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300381&lng=en&nrm=iso&tlng=en Abstract Context: Mobile data traffic generated by video services increases daily. To address this situation, telecommunication service providers must know the behavior of video traffic and thus adjust network resources to meet and maintain the quality levels required by users. Traffic characterization studies in 4G networks for Live Video Streaming (LVS) services are scarce, and those available are obtained from simulation scenarios in which the real operating conditions of these types of networks are not considered. Method: This work focuses on finding a model that characterizes traffic from the probability density functions of LVS services under the adaptive streaming DASH technique in LTE networks. The traces analyzed to carry out the modeling study were acquired in real emulation scenarios considering the operating conditions frequently presented in the actual provision of the service, for which five test scenarios were defined. Results: Based on the parameterization of a number of probability density functions found, a description of different traffic models of the service under study is presented, as well as for each of the pre-established test scenarios in a 4G-LTE network. Conclusions: From the results, it is concluded that the traffic model depends on the conditions of each scenario, and that there is no single model that describes the general behavior of LVS services under the adaptive streaming DASH technique in an emulated LTE network.<hr/>Resumen Contexto: El tráfico de datos móviles generado por los servicios de video aumenta a diario. Para enfrentar dicha situación, los proveedores de servicios de telecomunicaciones deben conocer el comportamiento del tráfico de video y así ajustar los recursos de la red que permitan satisfacer y mantener los niveles de calidad requeridos por los usuarios. Los estudios de caracterización de tráfico en redes 4G para el servicio Live Video Streaming (LVS) son escasos y los disponibles son obtenidos a partir de escenarios de simulación en los cuales no se consideran las condiciones reales de funcionamiento de este tipo de redes. Método: Este trabajo se centra en encontrar un modelado que caracterice el tráfico a partir de las funciones de densidad de probabilidad del servicio LVS bajo la técnica de streaming adaptativo DASH en redes LTE. Las trazas analizadas para realizar el estudio del modelado fueron adquiridas en escenarios reales de emulación considerando las condiciones de funcionamiento frecuentemente presentadas en la prestación real del servicio, para lo cual se definieron cinco escenarios de prueba. Resultados: Se presenta la descripción, a partir de la parametrización de algunas funciones de densidad de probabilidad encontradas, de diferentes modelos de tráfico del servicio bajo estudio y para cada uno de los escenarios de prueba preestablecidos en una red 4G-LTE. Conclusiones: A partir de los resultados, se concluye que el modelo de tráfico depende de las condiciones de cada escenario y que no existe un modelo único que describa el comportamiento general del servicio LVS bajo la técnica de streaming adaptativo DASH en una la red LTE emulada. <![CDATA[Air Quality Measurement Using an IoT Network: a Case Study]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300401&lng=en&nrm=iso&tlng=en Abstract Context: The evaluation of air quality in Colombia is localized; it does not go beyond determining whether the level of the polluting gas at a specific point of the monitoring network has exceeded a threshold, according to a norm or standard, in order to trigger an alarm. It is not committed to objectives as important as the real-time identification of the dispersion dynamics of polluting gases in an area, or the prediction of the newly affected population. From this perspective, the presence of polluting gases was evaluated on the university campus of Escuela Colombiana de Ingeniería Julio Garavito, located north of the city of Bogotá, and the affected population was estimated for the month of October, 2019, using the Kriging geostatistical technique. Method: This study is part of the design and construction of an auxiliary mobile station that monitors and reports complementary information (CO and SO2 gases) to that provided by the Guaymaral meteorological station, located in the north of Bogotá. This information is transmitted through an IoT network to a server, where a database is created which stores the information on polluting gases reported by the 14 stations of the Bogotá air quality monitoring network, the information sent by the auxiliary station, and the statistical information of the population present on the university campus. Pollutant gas data and population information recorded from October 1st to 31st, 2019, are the input for data analysis using the Kriging interpolation method and predicting the affected population on said campus. Results: There is a particulate matter concentration of 29 µg/m3 of PM10 in the coliseum and 12,6 µg/m3 of PM2,5 in building G, in addition to 9,8 ppb of O3 in building I, 14,9 ppb of NO2 in that same building, 0,79 ppb of CO in building C, and 0,65 ppb of SO2 also in building C, thus allowing to infer, according to the Bogotá air quality index, a favorable air quality for a population of 2.131 people who visited the campus university during the aforementioned period. Conclusions: The correct integration of the data in the web server and their analysis, carried out in the R language, allowed determining the approximate indicators of the polluting factors around Escuela Colombiana de Ingeniería Julio Garavito. Additionally, to determine the affected population, these indicators were correlated with the information on the registered population that entered the campus during the period under study. Based on the results obtained, it was concluded that the air quality on the campus of Escuela Colombiana de Ingeniería Julio Garavito is favorable, and that 2.131 people benefited daily from these conditions.<hr/>Resumen Contexto: La evaluación de la calidad del aire en Colombia es localizada; no va más allá de determinar si el nivel del gas contaminante en un punto específico de la red de monitoreo ha excedido un umbral, de acuerdo con una norma o estándar, con el fin de generar una alarma. No se compromete con objetivos tan importantes como identificar en tiempo real la dinámica de dispersión de los gases contaminantes en una zona, ni la predicción de la nueva población afectada. Desde esta perspectiva, se evaluó la presencia de los gases contaminantes en el campus universitario de la Escuela Colombiana de Ingeniería Julio Garavito, ubicada al norte de la ciudad de Bogotá, y se estimó la población afectada para el mes de octubre de 2019 utilizando la técnica geoestadística de Kriging. Método: Este estudio forma parte del diseño y construcción de una estación móvil auxiliar que monitorea y reporta información complementaria (gases CO y SO2) a la que brinda la estación meteorológica de Guaymaral, ubicada en el norte de Bogotá. Esta información es transmitida a través de una red IoT hacia un servidor, donde se crea una base de datos que almacena la información de los gases contaminantes reportada por las 14 estaciones de la red de monitoreo de calidad del aire de Bogotá, la información enviada por la estación auxiliar y la información estadística de la población presente en el campus universitario. Los datos de los gases contaminantes y la información de la población registrada desde el 1 al 31 de octubre de 2019 son el insumo para el análisis de datos mediante el método de interpolación de Kriging y la predicción de la población afectada en dicho campus. Resultados: Se encuentra una concentración de material particulado de 29 µg/m3 de PM10 en el coliseo y 12,6 µg/m3 de PM2,5 en el edificio G. Además de 9,8 ppb de O3 en el edificio I, 14,9 ppb de NO2 en ese mismo edificio, 0,79 ppb de CO en el edificio C y 0,65 ppb de SO2 también en el edificio C, permitiendo inferir, según el índice de calidad del aire de Bogotá, una calidad del aire favorable para una población de 2.131 personas que visitaron el campus universitario durante el período mencionado. Conclusiones: La correcta integración de los datos en el servidor web y el análisis de estos, realizado en lenguaje R, permitieron determinar los indicadores aproximados de los factores contaminantes en el área de la Escuela Colombiana de Ingeniería Julio Garavito. Adicionalmente, para determinar la población afectada, estos indicadores se correlacionaron con la información de la población registrada que ingresó al campus durante el periodo de estudio. Con base en los resultados obtenidos, se pudo concluir que la calidad del aire en el campus universitario de la Escuela Colombiana de Ingeniería Julio Garavito es favorable y 2.131 personas se beneficiaron diariamente de estas condiciones. <![CDATA[Lightning Activity in the Department of Santander between 2014 and 2016]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300419&lng=en&nrm=iso&tlng=en Resumen Contexto: En este artículo se determinó el parámetro de densidad de descargas a tierra (DDT) en Santander (Colombia) y se hizo un estudio de la actividad de rayos en el departamento entre 2014 y 2016. Método: El territorio departamental se dividió en recuadros de 1 km2 y, mediante información de descargas a tierra obtenida de la Red Colombiana de Detección Total de Rayos LINET, se halló la cantidad de flashes promedio anuales por recuadro, lo que corresponde al parámetro de DDT. Así mismo, usando métodos estadísticos, se analizó la variación espacial, temporal, multiplicidad y corriente pico de descarga de retorno de los flashes que incidieron en el departamento. Resultados: Las zonas con mayores valores de DDT se ubican en los municipios de Suaita, Gámbita, Bolívar, Oiba y Charalá. En promedio, se registraron 183.199 flashes anuales, de los cuales el 54,14 % tiene multiplicidad igual a uno. Se observaron picos de actividad de rayos en los meses de abril, mayo, septiembre y octubre entre las 16:00 y las 18:00 y las 22:00 y las 4:00, así como valores de corriente anual media de 33,6 kA para descargas negativas con valores máximos promedio en los meses de octubre, noviembre y diciembre, y de 25,7 kA para descargas positivas con valores máximos promedio en los meses de abril, octubre y noviembre. Conclusiones: Se encontró una marcada influencia de la topografía y de la altitud del terreno en la incidencia de descargas atmosféricas en el departamento, ya que los municipios con mayor actividad de rayos se ubican a los costados de altas cadenas montañosas a alturas menores que 1.500 msnm y los municipios de menor actividad se sitúan sobre páramos y cerros a alturas entre 3.000 y 3.500 msnm.<hr/>Abstract Context: In this paper, the ground flash density (GFD) parameter in Santander (Colombia) is determined, and a study of lightning activity in the department from 2014 to 2016 is conducted. Method: The departmental territory was divided into 1 km2 squares, and, through data regarding cloudto-ground discharges obtained from the Colombian Total Lightning Detection Network (LINET), the number of annual average flashes per square was found, which corresponds to the GFD parameter. Likewise, using statistical methods, the spatial and temporal variation, multiplicity, and peak return discharge current of the flashes that affected the department were analyzed. Results: The areas with the highest GFD values are located in the municipalities of Suaita, Gámbita, Bolívar, Oiba, and Charalá. On average, 183.199 annual flashes were recorded, out of which 54,14 % have a multiplicity equal to one. Lightning activity peaks were observed in the months of April, May, September, and October between 16:00 and 18:00 and between 22:00 and 4:00 h, as well as mean annual current values of 33,6 kA for negative discharges with average maximum values in the months of October, November, and December, and of 25,7 kA for positive discharges with average maximum values in the months of April, October, and November. Conclusions: A marked influence of the terrain’s topography and altitude was found on the incidence of atmospheric discharges in the department, given that the municipalities with the highest lightning activity are located on the sides of high mountain ranges at altitudes less than 1.500 m.a.s.l., and the municipalities with less activity are located on moors and hills at heights between 3.000 and 3.500 m.a.s.l. <![CDATA[Proposal of a Dynamic Algorithm for the Maintenance and Vehicle Routing Problem with Time Windows]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300436&lng=en&nrm=iso&tlng=en Abstract Context: In the context of business organizations, every process in which the product is immersed has a cost and time associated with it. The area of maintenance planning and scheduling is no exception;however, it is an aspect in which few companies specialize, tending to be outsourced. In this sense, the application of combinatorial models is a tool with a high potential to improve the overall performance of the organization through the understanding of the integral maintenance process. Method: A two-phase (maintenance and routing) dynamic algorithm is proposed which considers a set of clients distributed in a maintenance network (distance), where each of the technicians start from the same central node (depot), which, in turn, is the endpoint of each assigned route. The objective is to minimize the total cost associated with the development of preventive and corrective maintenance of all machines to be evaluated.With this purpose, the formulation of the mathematical problem for each of the phases and its interrelation method is proposed. Then, performance measures are expressed to evaluate the achieved objectives. Results: The results satisfy a consistent alternative for the resolution of problems of the NP-Hard type,which generates a high level of complexity to the model. That is, it proposes a tool for solving problems of these characteristics in low computational response times and with appealing results. Conclusions: The combined maintenance and routing model using a dynamic algorithm addresses the maintenance and routing problem satisfactorily. The model shows good results with respect to the comparison optimization model in percentage gaps of performance measures lower than 5 %. As for the computational time required, a reduction of up to 98% was achieved, which makes it an ideal alternative for highly complex scenarios. Finally, achieving a higher level of characterization, employing multiobjective decision criteria and a greater number of constraints to the problem, is proposed in future research.<hr/>Resumen Contexto: En el contexto de las organizaciones empresariales, todo proceso en el que está inmerso el producto conlleva un costo y un tiempo asociados. El área de planeación y programación de mantenimiento no es la excepción; sin embargo, es un aspecto en el cual pocas compañías se especializan,tendiendo a la tercerización. En este sentido, la aplicación de modelos combinatorios es una herramienta con un alto potencial de mejorar el desempeño global de la organización a través del entendimiento del proceso integral de mantenimiento. Método: Se plantea un algoritmo dinámico de dos fases (mantenimiento y ruteo) que considera un conjunto de clientes distribuidos en una red de mantenimiento (distancia) en el que cada uno de los técnicos parte del mismo nodo central (depósito), que a su vez es el punto final de cada ruta asignada. El objetivo consiste en minimizar el costo total asociado al desarrollo del mantenimiento tanto preventivo como correctivo de todas las máquinas a evaluar. Con esta finalidad se plantea la formulación del problema matemático para cada una de las fases y su método de interrelación. Después se expresan medidas de desempeño para evaluar los objetivos alcanzados. Resultados: Los resultados satisfacen una alternativa consistente para la resolución de problemas del tipo NP-Hard que genera un alto nivel de complejidad al modelo. Es decir, plantea una herramienta para resolución de problemas de estas características en tiempos de respuesta computacional reducidos y con resultados atractivos. Conclusiones: El modelo de mantenimiento y ruteo combinado usando un algoritmo dinámico permite abordar el problema de mantenimiento y ruteo de manera satisfactoria. El modelo presenta buenos resultados frente al modelo de optimización de comparación en brechas porcentuales de medidas de desempeño inferiores al 5 %. Respecto al tiempo computacional requerido, se logró una reducción de hasta el 98 %, lo cual lo convierte en una alternativa ideal para escenarios de gran complejidad. Finalmente,se propone en futuras investigaciones alcanzar un mayor nivel de caracterización por medio de criterios de decisión multiobjetivo y un mayor número de restricciones al problema. <![CDATA[SSOP Three-Dimensional Reconstruction of Tibia and Fibula for Applications in Biomechanical Fracture Models]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300450&lng=en&nrm=iso&tlng=en Abstract Context: Non-fatal injuries represent a public health issue. Among them, lower limb fractures have a large impact on the costs related to orthopedic treatments. In this work, a three-dimensional reconstruction of the tibia and fibula was performed for biomechanical applications with the purpose of defining the 3D reconstruction parameters that allow reducing patients’ radiation exposure and computational costs. Method: For the 3D reconstruction, a computerized tomography taken from a volunteer was used, as well as two software applications specialized in DICOM image reconstruction (Mimics Research and 3DSlicer). The number of images included in the volume was modified, and the results were compared. The quality of the reconstructed volumes was verified by comparing the reference volume reconstructed with the total number of images/slices vs. the modified volumes. The MeshLab software was used for this purpose. The analyzed parameters were the distance differences between the reference and the alternative models, as well as the qualitative curvature analysis. Results: The ANOVA results for the Max (maximum distance between meshes) response shows that software and slices are significant factors. However, the software-slices interaction did not have a significant influence. As for the RMS (root mean square) distance response, software, slices, and the softwareslices interaction are not significant. For the Mean distance response, slices and the software-slices interaction are not significant. Nevertheless, software significantly influences the response. These result suggest a potential way to reduce the computational cost and the patient’s radiation exposure in future biomechanical and preoperatory analyses, since the same quality can be obtained by including fewer 2D images in the reconstruction. Conclusions: The reconstructed surfaces are smoother when Mimics is used, even though the same smoothness factor was employed in both software applications during the reconstruction. When 16 slices are used (retained every 16 images from the complete original model), the distance differences increased for both bones (tibia and fibula). For the RMS, reducing the number of slices and using either one of the two applications analyzed would not show any significant differences in the reconstruction, thus allowing the potential reduction of radiation exposure of the patient.<hr/>Resumen Contexto: Las lesiones no fatales representan un problema de salud pública. Entre ellas, las fracturas de las extremidades inferiores tienen un gran impacto en los costos relacionados con los tratamientos ortopédicos. En este trabajo se realizó una reconstrucción tridimensional de la tibia y el peroné para aplicaciones biomecánicas con el fin de definir los parámetros de reconstrucción 3D que permitan reducir la exposición a la radiación de los pacientes y el costo computacional. Método: Para la reconstrucción 3D se empleó una tomografía computarizada tomada a un voluntario. Se utilizaron dos programas de software especializados en la reconstrucción de imágenes DICOM (Mimics Research y 3DSlicer). Se modificó el número de imágenes 2D incluidas en el volumen y se compararon los resultados. La calidad de los volúmenes reconstruidos se verificó comparando el volumen de referencia reconstruido con el número total de imágenes/cortes frente a los volúmenes modificados. Para ello se utilizó el software MeshLab. Los parámetros analizados fueron las diferencias de distancia entre el modelo de referencia y el alternativo, y el análisis cualitativo de la curvatura. Resultados: Los resultados del ANOVA para la respuesta Max (distancia máxima entre mallas) muestran que el software y los cortes son factores significativos. Sin embargo, la interacción software-cortes no tuvo una influencia significativa. Para la respuesta RMS (Root Mean Square) el software, los cortes y la interacción software*cortes no son significativos. Para la respuesta media, los cortes y la interacción software-cortes no son significativos. Sin embargo, el software influye significativamente en los resultados Estos resultados suponen una reducción del coste computacional y de la exposición de los pacientes a radiación en futuros análisis biomecánicos y preoperatorios, ya que se puede obtener la misma calidad incluyendo menos imágenes 2D en la reconstrucción. Conclusiones: Las superficies reconstruidas son más suaves cuando se utiliza Mimics a pesar de que se utilizó el mismo factor de suavidad en ambos programas durante la reconstrucción. Cuando se utilizan 16 cortes (retenidas cada 16 imágenes del modelo original completo), las diferencias de distancia aumentan para ambos huesos (tibia y peroné). Para el RMS, reducir el número de cortes y utilizar cualquiera de los dos programas analizados no presentaría diferencias significativas en la reconstrucción planteándose como una forma potencial para la reducción de la exposición a la radiación del paciente. <![CDATA[An Approach from Software Engineering to an IoT and Machine Learning Technological Solution that Allows Monitoring and Controlling Environmental Variables in a Coffee Crop]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300465&lng=en&nrm=iso&tlng=en Abstract Context: Software engineering allows us to approach software design and development from the practical application of scientific knowledge. In the case of this IoT solution and the machine learning approach to the monitoring and control of environmental variables in a coffee crop, it allows us to visualize certain artifacts of the system in their interaction with users and their behavior with other artifacts or devices that constitute a technological solution. Method: For this work, the application of software engineering from a conceptual approach and the behavior of the system is proposed. To meet these objectives, we decided to use the Unified Modeling Language (UML) in such a way that the most important components of the technological solution could be represented from a static perspective through the use case diagrams, as well as from a dynamic viewpoint through the sequence diagrams. Results: Through the application of the UML, it was possible to develop the conceptual and behavioral modeling of certain artifacts and components. This knowledge allowed identifying the interaction between physical components and devices (machine to machine) and human-machine interaction, that is,the relationship between users and the processes that make up the technological solution. Conclusions: Through software engineering, and more specifically the UML, we were able to establish the importance of knowing the different software artifacts that make up a system or application from a different technical and functional approach, while being able to collect valuable information about the behavior of certain system artifacts, as well as the interaction between users and processes.<hr/>Resumen Contexto: La ingeniería de software nos permite abordar el diseño y desarrollo de software desde la aplicación práctica del conocimiento científico. En el caso de esta solución de IoT y el enfoque de aprendizaje automático en el monitoreo y control de las variables medioambientales en un cultivo de café, nos permite visualizar determinados artefactos del sistema en su interacción con los usuarios y en el comportamiento con otros artefactos o dispositivos que integran una solución tecnológica. Método: Para el presente trabajo, se plantea la aplicación de la ingeniería del software desde un enfoque conceptual y del comportamiento del sistema. Para cumplir con estos objetivos se optó por emplear el lenguaje unificado de modelado (UML) de forma tal que se pudieran representar los componentes más importantes de la solución tecnológica desde una perspectiva estática a través de los diagramas de casos de uso y desde el punto de vista dinámico a través de los diagramas de secuencia. Resultados: Mediante la aplicación del UML, fue posible desarrollar el modelamiento conceptual y del comportamiento de ciertos artefactos y componentes. Este conocimiento permitió identificar la interacción entre componentes y dispositivos físicos (máquina a máquina) y la interacción hombre-máquina, es decir, la relación entre usuarios y procesos que componen la solución tecnológica. Conclusiones: A través de la ingeniería de software y más específicamente del UML, pudimos establecer la importancia de conocer los diferentes artefactos que componen un sistema o aplicación desde un enfoque técnico y funcional diferente, pudiendo recopilar información valiosa sobre el comportamiento de ciertos artefactos del sistema, así como de la interacción entre usuarios y procesos. <![CDATA[Extraordinary Passive Safety in Cars Using a Sensor Network Model]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-750X2021000300479&lng=en&nrm=iso&tlng=en Abstract Context: The automobile industry has included active and passive safety. Active safety incorporates elements to avoid crashes and collisions. Some elements are ABS brakes and stabilization bars, among others. On the other hand, passive safety avoids or minimizes damage to the occupants in the event of an accident. Some passive safety features include seat belts and front and curtain airbags for the driver and other occupants. Method: In this research work, we propose a new category called Extraordinary Passive Safety (XPS).A model of a sensor network was designed to inspect the conditions inside the car to detect fire, smoke,gases, and extreme temperatures. The sensors send data to a device (DXPS) capable of receiving and storing the data. Results: Each sensor collects data and sends it to the DXPS every period. The sensor sends 0s while there is no risk, and 1s when it detects a risk. When the DXPS receives a 1, the pattern is evaluated, and the risk is identified. Since there are several sensors, the reading pattern is a set of 0s (000000). When a pattern with one or more 1s (000100, 010101) is received, the DXPS can send an alert or activate a device. Conclusions: The proposed solution could save the lives of children left in the car or people trapped when the car catches fire. As future work, it is intended to define the devices to avoid or minimize damage to the occupants such as oxygen supply, gas extraction, regulating the temperature, among others.<hr/>Resumen Contexto: La industria de los automóviles ha incluido seguridad activa y pasiva. La seguridad activa incorpora elementos para evitar choques y colisiones. Algunos elementos son frenos ABS y barras de estabilización, entre otros. Por otro lado, la seguridad pasiva evita o minimiza daños a los ocupantes en caso de haber un accidente. Algunos elementos de seguridad pasiva son los cinturones de seguridad y bolsas de aire, así como de cortina para el conductor y otros ocupantes. Método: En este trabajo de investigación se propone una nueva categoría llamada seguridad pasiva extraordinaria (SPX). Se definió un modelo de una red de sensores para censar las condiciones del interior del automóvil para detectar fuego, humo, gases y temperaturas extremas. Los sensores envían datos a un dispositivo capaz de recibir y almacenar los datos. Resultados: Cada sensor obtiene datos y los envía al dispositivo cada periodo de tiempo. El sensor envía 0s mientras no exista riesgo; al detectar un riesgo envía un 1. Cuando el dispositivo recibe un 1,se evalúa el patrón y se determina el riesgo. Dado que hay varios sensores, el patrón de lectura es un conjunto de 0 (000000). Cuando se recibe un patrón con uno o más ceros (000100, 010101) se puede activar una alarma o activar un dispositivo. Conclusiones: La solución propuesta podría salvar vidas de niños dejados en el automóvil o personas atrapadas al incendiarse el automóvil. Como trabajo futuro se pretenden definir los dispositivos para evitar o minimizar los daños a los ocupantes como suministro de oxígeno, extracción de gases, regulación de la temperatura, ente otros.