Scielo RSS <![CDATA[TecnoLógicas]]> http://www.scielo.org.co/rss.php?pid=0123-779920210003&lang=en vol. 24 num. 52 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[VERT: herramienta de educación virtual en física médica]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300001&lng=en&nrm=iso&tlng=en <![CDATA[Augmented Reality as a Didactic Alternative in Public Schools in Rural and Semi-Urban Areas in San Quintín and Mexicali, Mexico]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300003&lng=en&nrm=iso&tlng=en Resumen Existe una brecha tecnológica en escuelas rurales y urbanas de San Quintín y Mexicali, el objetivo de este estudio fue establecer las bases de una intervención pedagógica, utilizando recursos que permitieran mayor interacción del estudiante con su propia realidad, a través del uso de tecnología en escuelas de nivel medio y medio-superior en Baja California, que sustenta la propuesta etnometodológica de investigación - acción, apoyándose en el método del Aprendizaje Basado en Problemas de origen constructivista. En este trabajo se diseñó un modelo de realidad aumentada que facilitara dicha intervención didáctica, así como instrumentos para evaluar la percepción por estudiantes y maestros para discutir y analizar sus respuestas con un enfoque mixto. En general, se identificó poca disponibilidad de dispositivos móviles en escuelas rurales, comparadas con la escuela urbana. En la evaluación sobre la percepción que tuvieron estudiantes y maestros sobre su implementación, se obtuvo que la propuesta didáctica induce a la prevención, siendo además considerada una actividad “Fácil”, donde hubo mayor preferencia por las representaciones gráficas en 3D en realidad aumentada, y los docentes involucrados coincidieron en que existió “Motivación al diseñar mapa con realidad aumentada”, pues “Fomentó la participación en la actividad”, “Reafirmación en los valores” y “Potencia en el aprendizaje”. El efecto obtenido de incluir la metodología del aprendizaje basado en problemas indujo a los estudiantes a ser sujetos activos en la solución de estos, siendo conscientes de su participación y con orientación a seguir valores preventivos e incluyentes.<hr/>Abstract There is a technological gap between rural and semi urban schools in San Quintín and Mexicali (Baja California, Mexico). The objective of this study was to establish the bases of a pedagogical intervention (using augmented reality) that enabled middle and upper-middle school students there to interact more with their own reality. This study applied the ethnomethodological approach known as action research and problem-based learning, which has a constructivist origin. An augmented reality model was designed to facilitate such intervention, and questionnaires were used to evaluate students’ and teachers’ perceptions of it. Their responses were discussed and analyzed adopting a mixed-methods approach. It was found that, in general, mobile devices are less available in rural schools than in their semi urban counterparts. Students and teachers perceived that the implementation of this didactic intervention fostered disaster prevention and was easy. Most preferred 3D graphic representations in augmented reality, and teachers agreed that it was more motivating to design an augmented reality map because it encouraged participation, reaffirmed values, and promoted learning. Problem-based learning encouraged students to be active subjects who provide solutions, are aware of their participation, and adopt the values of disaster prevention and inclusion. <![CDATA[Using X-Road to Implement Open Data in Electrical Systems and Promote the Integration with Smart City and Open Governance Strategies]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300025&lng=en&nrm=iso&tlng=en Abstract The electrical industry is undergoing a deep digital transformation towards the consolidation of smart grids, which requires a high demand of data and information systems involved in the processes. Open data initiatives, which have been focused on open governance to a great extent, generate positive impacts on society and the economy in terms of easy access to public resources, agility, and transparency. These initiatives can also be adopted in the electrical industry (i.e., power, electrical, and energy systems) for customer engagement, collaboration with other industries, and reaching consensus. This study proposes the implementation of an open data solution for the electrical industry through the deployment of a data hub that offers digital services for smart city applications and the integration of the X-Road system to improve the security and interoperability of open data. This initiative aims to promote a wider adoption of open data in the electrical industry and prepare the latter for fully connected and collaborative digital ecosystems in smart cities, industries, and governments. This study also proposes an open data architecture for the interoperability of the electrical industry with other digital industries (through a Smart City Hub and the adoption of 5G technology), and it reports some relevant results and major findings in this regard. This paper highlights the benefits of promoting open data and technological strategies for digitized electrical systems while considering humans an essential factor. Finally, it discusses the pros and cons of the integration of X-Road with the electrical industry under the concept of smart grids for data exchange and potential applications.<hr/>Resumen La industria eléctrica está experimentando una profunda transformación digital hacia la consolidación de redes inteligentes que necesitan una alta demanda de datos y sistemas de información involucrados en los procesos. Las iniciativas de datos abiertos, que en mayor medida han sido empleadas para iniciativas de gobierno abierto, generan impactos positivos en la sociedad y la economía en cuanto al fácil acceso a los recursos públicos, la agilidad y la transparencia. Estas iniciativas también se pueden adoptar en la industria eléctrica para sistemas de potencia, eléctricos y de energía para su uso en la participación de los clientes, la colaboración y la mejora de consenso en industrias. Esta investigación propone la implementación de una solución de datos abiertos para la industria eléctrica mediante el despliegue de un Hub que ofrece servicios digitales para aplicaciones de ciudad inteligente y la integración del sistema X-Road para mejorar la seguridad e interoperabilidad de los datos abiertos. Esta iniciativa pretende una adopción más amplia de datos abiertos en la industria eléctrica y su preparación para ecosistemas digitales totalmente conectados y colaborativos en ciudades inteligentes, industrias y gobierno. Se muestran algunos resultados relevantes y hallazgos importantes de este trabajo acerca de una arquitectura de datos abiertos para la interoperabilidad del sector eléctrico con otras industrias digitales a través de un Smart City Hub y la adopción tecnológica de 5G, exponiendo los beneficios de promover los datos abiertos y estrategias tecnológicas para sistemas eléctricos digitalizados mientras se considera el humano como factor esencial. Se discuten los pros y los contras de la integración de X-Road con la industria eléctrica dentro del concepto de redes inteligentes para el intercambio de datos y aplicaciones potenciales. <![CDATA[Method for determining uncertainty and error in the process of ophthalmic lens calibration]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300043&lng=en&nrm=iso&tlng=en Abstract In the present investigation, a scientific procedure was developed, and a mathematical model was proposed, with the objective of determining, under standard conditions, the uncertainty, and the measurement of dioptric power in ophthalmic lenses. The methodology of the scientific procedure is based on the fundamentals of geometric optics, this process guarantees and establishes a standardized uncertainty measure in repeatable and reproducible processes. The methodology is complemented with a proposed mathematical model based on the guide for the expression of uncertainty in measurement - GUM. This model can be applied to lenses used for calibrating eye care equipment (such as lensometers, which are used to diagnose myopia and farsightedness) by evaluating the lenses without having direct contact with patients. When the proposed mathematical model was applied, its experimental result was a maximum expanded uncertainty of ± 0.0079 diopters in a 0.5-diopter lens. This is optimal compared to the result of other authors this article, who reported a maximum expanded uncertainty of ± 0.0086 diopters. In conclusion, the application of this scientific procedure provides manufacturers and users of this type of lenses with a reliable measurement thanks to a calibration process based on geometrical optics and centered on patient safety.<hr/>Resumen En la presente investigación se desarrolló un procedimiento científico, y se propuso un modelo matemático, con el objetivo de determinar, bajo condiciones estándar, la incertidumbre y la medida de potencia dióptrica en lentes oftalmológicos. La metodología del procedimiento científico está basada en los fundamentos de la óptica geométrica, este proceso garantiza y establece una medida de incertidumbre estandarizada en procesos repetibles y reproducibles. La metodología se complementa con una propuesta de modelo matemático basado en la guía para la expresión de la incertidumbre en la medida - GUM. Este modelo se puede aplicar a los lentes que se utilizan para la calibración de equipos de salud visual, como los lensómetros, los cuales se emplean para el diagnóstico de la miopía e hipermetropía por medio de la evaluación de los lentes sin tener contacto directo con los pacientes. Al aplicar el modelo matemático propuesto, y de acuerdo con los datos experimentales, se obtuvieron resultados óptimos en su incertidumbre máxima expandida de aproximadamente 0,0079 dioptrías en una lente de 0,5 dioptrías, comparados con el reporte realizado por los autores, dado que su trabajo reporta una incertidumbre máxima expandida cercana 0,0086 dioptrías, obteniendo como conclusión que la aplicación de este procedimiento científico permite a los fabricantes, y a los usuarios de este tipo de lentes, una confiabilidad en sus mediciones por medio de un proceso de calibración basado en la óptica geométrica en torno a la seguridad del paciente. <![CDATA[Comparison and Validation of Models for the Design of Optimal Economic Pipe Diameters: A Case Study in the Anseba Region, Eritrea]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300058&lng=en&nrm=iso&tlng=en Abstract An optimal design for a pressurized flow pipe network is characterized by being economical and contributing the least amount of losses during water transmission through the system. The diameter of a pipe in a network system that delivers the desired effect with the minimum amount of waste and expenses is referred to as an optimal pipe size. The Life-Cycle Cost Analysis (LCCA) model is widely recognized as the recommended standard technique to estimate the optimal pipe size for any pipe flow network system. Numerous empirical formulas have been proposed to simplify the computations required in this economic analysis model. This study seeks to compare the various empirical models that have been proposed by different authors based on a variety of physical variables involved in fluid flow dynamics. Eleven different empirical equations were chosen in order to select the optimal diameter for the network at the Hamelmalo Agricultural College farm located in the Anseba region of Eritrea for the distribution of water to the different sub-plots. The estimated diameters were compared to the standard diameter calculated using the standard LCCA method. This comparison was based on the estimated total head losses and economic analysis of the pipe diameters chosen for such network. Moreover, a statistical analysis was conducted to obtain the best-fit recommended modeled diameter for the network. The Bresse’s model performance was the most adequate when compared with the LCCA model.<hr/>Resumen Un diseño óptimo para una red de tuberías de flujo presurizado se caracteriza por ser económico y por evitar la menor cantidad de pérdidas durante la transmisión de agua a través del sistema. Por su parte, un tamaño de tubería óptimo hace referencia al diámetro de una tubería en un sistema de red que brinda el efecto deseado generando una cantidad mínima de desperdicios y gastos. El modelo de análisis del costo del ciclo de vida (LCCA, por sus siglas en inglés) es ampliamente reconocido como la técnica estándar recomendada para estimar el tamaño de tubería óptimo para cualquier sistema de red de tuberías. Se han propuesto múltiples fórmulas empíricas que buscan simplificar los cálculos inherentes en dicho modelo de análisis económico. El objetivo de este estudio consistió en comparar los modelos empíricos que varios autores han propuesto, a partir de diversas variables físicas involucradas en la dinámica del flujo de líquidos, con el fin de seleccionar el diámetro óptimo para la red en la granja del Hamelmalo Agricultural College, ubicada en la región de Anseba, en Eritrea,y su distribución de agua a las distintas subparcelas. Para ello se eligieron once ecuaciones empíricas diferentes. Los diámetros resultantes se compararon con el diámetro estándar calculado, utilizando, a su vez, el método estándar de análisis del costo del ciclo de vida. Dicha comparación se basó en la estimación de las pérdidas de carga total y el análisis económico de los diámetros de tubería elegidos para dicha red. Además, se realizó un análisis estadístico para obtener el diámetro modelado recomendado con el mejor ajuste para la red. El rendimiento del modelo de Bresse fue el más adecuado en comparación con el modelo LCCA. <![CDATA[Technical Evaluation of the Cementing Potential of Clays Obtained from Construction and Demolition Waste]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300084&lng=en&nrm=iso&tlng=en Resumen Esta investigación tiene como objetivo evaluar técnicamente el potencial cementante de arcillas provenientes de residuos de construcción y demolición (RCD), de ladrillo cerámico, baldosa cerámica y aparatos sanitarios en relación con el metacaolín, sustituyendo parcialmente el cemento Pórtland por cada uno de los materiales provenientes de los RCD. Inicialmente se obtuvieron los RCD y se sometieron a trituración primaria y secundaria con el fin de reducir su tamaño; luego a una trituración más fina hasta obtener un polvo con granulometría similar al del cemento tipo Pórtland. En la preparación de la matriz cementante, el cemento se sustituyó gradualmente por las arcillas provenientes de los RCD y del metacaolín, hasta encontrar mezclas con mejor desempeño mecánico al esfuerzo de compresión, lo anterior de acuerdo con la norma técnica colombiana NTC 220; posteriormente se le adicionó arena normalizada con el fin de preparar cilindros de concreto. Por último, utilizando las sustituciones parciales de arcillas por cemento Pórtland como material cementante, estas fueron sometidas a ensayos de petrografía y a fluorescencia y difracción de rayos X. En dichos ensayos se encontraron sustancias químicas similares, como portlandita y calcita que pueden representar, una vez sea posible identificar las fases cementantes de los materiales utilizados, un potencial agente cementante de las arcillas de baldosa cerámica y aparatos sanitarios provenientes de los RCD. Finalmente se pudo establecer que las arcillas provenientes de los RCD pueden ser útiles como relleno para mejorar las propiedades mecánicas del concreto o como agregados en morteros, revoques o enlucidos.<hr/>Abstract This paper aims to technically evaluate the cementing potential of clays obtained from Construction and Demolition Waste (CDW), as well as from ceramic brick, ceramic tile, and sanitary ware waste in terms of metakaolin, by partially replacing Portland cement with each of the materials recovered from CDW. First, CDWs were collected and subjected to primary and secondary crushing to reduce their size. Then, they were finely milled until a powder with a granulometry similar to that of Portland cement was obtained. When preparing the cementitious matrix, the cement was gradually replaced with the clays derived from CDW and metakaolin until mixtures with a better compression strength performance were obtained in accordance with Colombian Technical Standard 220 (abbreviated NTC 220 in Spanish). Afterward, standardized sand was added to the mixture to make concrete cylinders. Finally, the partial substitutions of Portland cement by clays as cementitious material were subjected to petrography tests and X-ray fluorescence and diffraction. During these tests, similar chemical substances, such as portlandite and calcite, were observed. These substances could become a potential cementing agent in ceramic tile and sanitary ware clays from CDW once the cementing phases of the materials used are identified. The results suggest that clays from CDW can be employed as fillers to improve the mechanical properties of concrete or as aggregates in mortars or plasters. <![CDATA[Development Model for the Construction of Educational Mobile Applications]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300110&lng=en&nrm=iso&tlng=en Resumen Los dispositivos móviles promueven la construcción de saberes, fomentando el aprendizaje social y el intercambio de conocimientos. El aprendizaje móvil genera oportunidad de crecimiento y aplicación de prácticas innovadoras en los entornos educativos. El Gobierno colombiano, a través de estrategias de inversión que apuestan a la calidad educativa, dota de dispositivos móviles a las escuelas del país. No obstante, las aplicaciones móviles contenidas en estos dispositivos carecen de temáticas acordes al contexto y nivel educativo, diseño UX/UI y no promueven un mejoramiento del proceso de enseñanza-aprendizaje. El propósito de este trabajo fue presentar un modelo para el desarrollo de aplicaciones móviles educativas para docentes no programadores, que integre estrategias didácticas y metodológicas orientadas al mejoramiento académico. El desarrollo de este trabajo se apoyó en el uso de la investigación descriptiva con enfoque mixto, para hacer una interpretación de los resultados obtenidos y analizar la mediación de las aplicaciones móviles creadas bajo este modelo para coadyuvar en el proceso de enseñanza-aprendizaje. La investigación se llevó a cabo con docentes de diez instituciones educativas públicas, quienes presentaban desconocimiento y poca apropiación del aprendizaje móvil. Como resultado se proporcionó un modelo de desarrollo de aplicaciones móviles educativas, una contribución a la literatura existente en el contexto del aprendizaje móvil y el desarrollo de prácticas docentes innovadoras. Se concluye que el modelo de desarrollo de esta investigación puede ser utilizado para que profesores no desarrolladores puedan implementar aplicaciones móviles educativas que sirva como herramienta didáctica mediadora en el proceso enseñanza-aprendizaje en la educación primaria y secundaria.<hr/>Abstract Mobile devices promote the construction of knowledge, fostering social learning and knowledge exchange. Mobile learning creates an opportunity for growth and the application of innovative practices in educational settings. The Colombian government has implemented investment strategies to improve educational quality and provided schools throughout the country with mobile devices. However, the mobile applications contained in these devices lack contents in accordance with student’s context and educational level and UX/UI design; moreover, they do not promote an improvement in the teaching-learning process. This study presents a model that non-programming teachers can use to develop educational mobile applications, which integrates didactic and methodological strategies aimed at academic improvement. Descriptive research with a mixed-methods approach was employed here to interpret the results obtained and analyze the mediation of the mobile applications created adopting this model to support the teaching-learning process. Teachers from ten public educational institutions, who exhibited little appropriation and ignorance of mobile learning, participated in this study. As a result, a model to develop educational mobile applications was created, which represents a contribution to the existing literature in the field of mobile learning and the development of innovative teaching practices. It was concluded that the development model proposed in this paper can be used by non-developer teachers to implement educational mobile applications that serve as a mediating didactic tool in the teaching-learning process in primary and secondary education. <![CDATA[Alteration of Entropy in the Precuneus and Posterior Cingulate Cortex in Alzheimer’s Disease: A Resting-State Functional Magnetic Resonance Study]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300136&lng=en&nrm=iso&tlng=en Resumen El cerebro humano ha sido descrito como un sistema complejo. Su estudio por medio de señales neurofisiológicas ha desvelado la presencia de interacciones lineales y no lineales. En este contexto, se han utilizado métricas de entropía para descubrir el comportamiento cerebral en presencia y ausencia de alteraciones neurológicas. El mapeo de la entropía es de gran interés para el estudio de enfermedades neurodegenerativas progresivas como la enfermedad de Alzheimer. El objetivo de este estudio fue caracterizar la dinámica de las oscilaciones cerebrales en dicha enfermedad por medio de la entropía y la amplitud de las oscilaciones de baja frecuencia a partir de señales Bold de la red por defecto y la red de control ejecutivo en pacientes con Alzheimer e individuos sanos, utilizando una base de datos extraída de la serie de estudios de imágenes de acceso abierto. Los resultados revelaron mayor poder discriminatorio de la entropía por permutaciones en comparación a la amplitud de fluctuación de baja frecuencia y la amplitud fraccional de fluctuaciones de baja frecuencia. Se obtuvo un incremento de la entropía por permutaciones en regiones de la red por defecto y la red de control ejecutivo en pacientes. La corteza cingulada posterior y la precuña manifestaron característica diferencial al evaluar la entropía por permutaciones en ambos grupos. No hubo hallazgos al correlacionar las métricas con las escalas clínicas. Los resultados demostraron que la entropía por permutaciones permite caracterizar la función cerebral en pacientes con Alzheimer, además revela información sobre las interacciones no lineales complementaria a las características obtenidas por medio del cálculo de la amplitud de las oscilaciones de baja frecuencia.<hr/>Abstract The human brain has been described as a complex system. Its study using neurophysiological signals has revealed the presence of linear and non-linear interactions. In this context, entropy metrics have been used to discover brain behavior in the presence and absence of neurological alterations. Entropy mapping is of great interest for the study of progressive neurodegenerative diseases such as Alzheimer’s Disease (AD). The objective of this study was to characterize the dynamics of brain oscillations in AD using entropy and the Amplitude of Low-Frequency Fluctuations (ALFF) of BOLD signals from the default network and the executive control network in patients with AD and healthy individuals. For this purpose, the data was extracted from the Open Access Series of Imaging Studies (OASIS). The results revealed greater discriminatory power in Permutation Entropy (PE) than in ALFF and fractional ALFF metrics. An increase in PE was obtained in regions of the default network and the executive control network in patients. The posterior cingulate cortex and the precuneus exhibited a differential characteristic when PE was evaluated in both groups. There were no findings when the metrics were correlated with clinical scales. The results showed that PE can be used to characterize the brain function in patients with AD and reveals information about non-linear interactions complementary to the characteristics obtained by calculating the ALFF. <![CDATA[Physical Properties of Co-crystallized Products of Passion Fruit (Passiflora Edulis) Juice and Guava (Psidium Guajava l) Pulp and Their Co-Crystallization Kinetics]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300158&lng=en&nrm=iso&tlng=en Resumen La cocristalización con sacarosa se ha utilizado para obtener productos con mejores propiedades físicas, como solubilidad, humectabilidad, hidratación y estabilidad, así como para preservar los componentes activos presentes en la mayoría de las futas. El objetivo de este trabajo fue determinar el efecto del pH y concentración de pulpa de guayaba (Psidium guajava L) y jugo de maracuyá (Passiflora edulis, en adelante concentración de fruta), sobre la humedad, la densidad aparente, la solubilidad, el ángulo de reposo, la higroscopicidad y la cinética de cocristalización de productos cocristalizados de jugo de maracuyá y pulpa de guayaba. Se prepararon los cocristalizados con jarabe de sacarosa a 70 °Brix, pulpa de guayaba concentrada a 18 °Brix y el jugo de maracuyá a 40 °Brix. Para concentrar las mezclas y prepararlas para la cocristalización se utilizó un evaporador rotativo Heidolph D-91126 HB y un controlador de vacío Heidolph DC1/1HO. La cinética de cocristalización se evaluó utilizando un reómetro TA Instrument AR 1500ex, determinando la viscosidad compleja en el tiempo, a través de una rampa de temperatura de 80 °C a 15 °C a 1 Hz, descendiendo 6,5 °C/min, ajustando los datos experimentales a un modelo empírico. El aumentar la concentración de fruta añadida en el proceso, aumentan el tiempo de cristalización y la humedad final del producto, y disminuye su solubilidad. La velocidad de cocristalización se ve favorecida por la menor concentración de fruta, presentándose una mayor velocidad de cristalización para los cocristalizados de pulpa de guayaba que en los de jugo de maracuyá.<hr/>Abstract Co-crystallization with sucrose has been used to obtain products with better physical properties (such as solubility, wettability, hydration, and stability) and to preserve the active components present in most fruits. The objective of this study was to determine the effect of the pH and concentration of guava (Psidium guajava L) pulp and passion fruit (Passiflora edulis) juice (both referred to as fruit concentration) on the moisture, apparent density, solubility, angle of repose, hygroscopicity, and co-crystallization kinetics of co-crystallized passion fruit juice and guava pulp products. The co-crystallized products were prepared with sucrose syrup at 70 °Brix, concentrated guava pulp at 18 °Brix, and passion fruit juice at 40 °Brix. A Heidolph D-91126 HB Rotary-evaporator and a Heidolph DC1/1HO Vacuum Controller were used to concentrate the mixtures and prepare them for co-crystallization. The co-crystallization kinetics was evaluated using a TA Instrument AR 1500ex rheometer, thus determining complex viscosity over time using a temperature ramp from 80 to 15 °C at 1 Hz, descending at 6.5 °C/min. Then, the experimental data were fitted to an empirical model. Our results show that increasing the fruit concentration added in the process extends the crystallization time, increases the final moisture of the product, and decreases its solubility. The co-crystallization rate was favored by the lowest fruit concentration, and a higher crystallization rate was observed in the guava pulp than in the passion fruit juice (two co-crystallized products). <![CDATA[Multilevel Segmentation of Gleason Patterns using Convolutional Representations in Histopathological Images]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300176&lng=en&nrm=iso&tlng=en Resumen El sistema de puntuación de Gleason es el más utilizado para diagnosticar y cuantificar la agresividad del cáncer de próstata, estratificando regionalmente patrones anormales en imágenes histológicas. A pesar de ello, estudios recientes han reportado valores moderados de concordancia de 0.55, según el valor kappa en el diagnóstico de la enfermedad. Este estudio introduce una representación convolucional para la segmentación y estratificación semántica de regiones en imágenes histológicas implementando la puntuación de Gleason y tres niveles de representación. Para ello, en un primer nivel, se entrenó una red regional de tipo Mask R-CNN con anotaciones completas, lo que permitió definir delineaciones regionales, siendo efectivo en localizaciones con estructuras generales. En un segundo nivel, usando la misma arquitectura, se entrenó un modelo únicamente con anotaciones superpuestas del primer esquema, y que constituyen regiones con dificultad de clasificación. Finalmente, un tercer nivel de representación permitió una descripción más granular de las regiones, considerando las regiones resultantes de las activaciones del primer nivel. La segmentación final resultó de la superposición de los tres niveles de representación. La estrategia propuesta se validó y entrenó en un conjunto público con 886 imágenes histológicas. Las segmentaciones así generadas alcanzaron una media del Área Bajo la Curva de Precisión-Recalificación (AUPRC) de 0.8 ± 0.18 y 0.76 ± 0.15 respecto a los diagnósticos de dos patólogos, respectivamente. Los resultados muestran niveles de intersección regional cercanos a los de los patólogos de referencia. La estrategia propuesta es una herramienta potencial para ser implementada en el apoyo y análisis clínico.<hr/>Abstract The Gleason score is the most widely used grading system to diagnose and quantify the aggressiveness of prostate cancer, stratifying regional abnormal patterns on histological images. Nonetheless, recent studies into the Gleason score have reported moderate concordance values of 0.55 (kappa value) in the diagnosis of the disease. This study introduces a convolutional representation for the semantic segmentation and stratification of regions in histological images implementing the Gleason score and three levels of representation. On the first level, a regional network of the Mask R-CNN type is trained with complete annotations to define regional delineations, being effective in locations with general structures. On the second level, using the same architecture, a model is trained only with overlapping annotations from the first scheme, which are difficult-to-classify regions. Finally, a third level of representation produces a more granular description of the regions, considering the regions resulting from the activations of the first level. The final segmentation results from the superposition of the three levels of representation. The proposed strategy was validated and trained on a public set with 886 histological images. The segmentations thus generated achieved an average Area Under the Precision-Recall Curve (AUPRC) of 0.8 ± 0.18 and 0.76 ± 0.15 regarding the diagnoses of two pathologists, respectively. The results show regional intersection levels close to those of the reference pathologists. The proposed strategy is a potential tool to be implemented in clinical support and analysis. <![CDATA[Support Vector Machines for Biomarkers Detection in in vitro and in vivo Experiments of Organochlorines Exposure]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300197&lng=en&nrm=iso&tlng=en Abstract Metabolomic studies generate large amounts of data, whose complexity increases if they are derived from in vivo experiments. As a result, analysis methods highly used in metabolomics, such as Partial Least Squares Discriminant Analysis (PLS-DA), can have particular difficulties with this type of data. However, there is evidence that indicates that Support Vector Machines (SVMs) can better deal with complex data. On the other hand, chronic exposure to organochlorines is a public health problem. It has been associated with diseases such as cancer. Therefore, its identification is relevant to reduce their impact on human health. This study explores the performance of SVMs in classifying metabolic profiles and identifying relevant metabolites in studies of exposure to organochlorines. For this purpose, two experiments were conducted: in the first one, organochlorine exposure was evaluated in HepG2 cells; and, in the second one, it was evaluated in serum samples of agricultural workers exposed to pesticides. The performance of SVMs was compared with that of PLS-DA. Four kernel functions were assessed in SVMs, and the accuracy of both methods was evaluated using a k-fold cross-validation test. In order to identify the most relevant metabolites, Recursive Feature Elimination (RFE) was used in SVMs and Variable Importance in Projection (VIP) in PLS-DA. The results show that SVMs exhibit a higher percentage of accuracy with fewer training samples and better performance in classifying the samples from the exposed agricultural workers. Finally, a workflow based on SVMs for the identification of biomarkers in samples with high biological complexity is proposed.<hr/>Resumen Los estudios en metabolómica generan gran cantidad de datos cuya complejidad aumenta si surgen de experimentos in vivo. A pesar de esto, métodos ampliamente usados en metabolómica como el análisis discriminante por mínimos cuadrados parciales (PLS-DA) tienen dificultades con este tipo de datos, sin embargo, hay evidencia que las máquinas de vectores de soporte (SVM) pueden tener un mejor desempeño. Por otro lado, la exposición crónica a organoclorados es un problema de salud pública. Esta se asocia a enfermedades como el cáncer. Identificarla exposición es relevante para disminuir su impacto. Este estudio tuvo como objetivo explorar el rendimiento de las SVM en la clasificación de perfiles metabolómicos e identificación de metabolitos relevantes en estudios de exposición a organoclorados. Se realizaron dos experimentos: primero se evaluó la exposición a organoclorados en células HepG2. Luego, se evaluó la exposición a pesticidas en muestras de suero de trabajadores agrícolas. El rendimiento de las SVM se comparó con PLS-DA. Se evaluaron cuatro funciones kernel en SVM y la precisión de ambos métodos se evaluó mediante prueba de validación cruzada k-fold. Para identificar los metabolitos relevantes, se utilizó eliminación recursiva de características (RFE) en SVM y la proyección de importancia de variables (VIP) se usó en PLS-DA. Los resultados mostraron que las SVM tuvieron mayor precisión en la clasificación de los trabajadores agrícolas expuestos usando menos muestras de entrenamiento. Se propone un flujo de trabajo basado en SVM que permita la identificación de biomarcadores en muestras con alta complejidad biológica. <![CDATA[Author Profiling in Informal and Formal Language Scenarios Via Transfer Learning]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300212&lng=en&nrm=iso&tlng=en Abstract The interest in author profiling tasks has increased in the research community because computer applications have shown success in different sectors such as security, marketing, healthcare, and others. Recognition and identification of traits such as gender, age or location based on text data can help to improve different marketing strategies. This type of technology has been widely discussed regarding documents taken from social media. However, its methods have been poorly studied using data with a more formal structure, where there is no access to emoticons, mentions, and other linguistic phenomena that are only present in social media. This paper proposes the use of recurrent and convolutional neural networks and a transfer learning strategy to recognize two demographic traits, i.e., gender and language variety, in documents written in informal and formal language. The models were tested in two different databases consisting of tweets (informal) and call-center conversations (formal). Accuracies of up to 75 % and 68 % were achieved in the recognition of gender in documents with informal and formal language, respectively. Moreover, regarding language variety recognition, accuracies of 92 % and 72 % were obtained in informal and formal text scenarios, respectively. The results indicate that, in relation to the traits considered in this paper, it is possible to transfer the knowledge from a system trained on a specific type of expressions to another one where the structure is completely different and data are scarcer.<hr/>Resumen El interés en tareas de perfilamiento de autor ha aumentado en la comunidad científica porque las aplicaciones han mostrado éxito en diferentes sectores como la seguridad, el mercadeo, la salud, entre otros. El reconocimiento e identificación de rasgos como el género, la edad, el dialecto o la personalidad a partir de datos de texto puede ayudar a mejorar diferentes estrategias de mercadeo. Este tipo de tecnología ha sido ampliamente discutida considerando documentos de redes sociales. Sin embargo, los métodos han sido pobremente estudiados en datos con una estructura más formal, donde no se tiene acceso a emoticones, menciones, y otros fenómenos lingüísticos que solo están presentes en redes sociales. Este trabajo propone el uso de redes neuronales recurrentes y convolucionales, y una estrategia de transferencia de aprendizaje para reconocer dos rasgos demográficos: el género y la variedad lingüística en documentos que están escritos en lenguajes informales y formales. Los modelos se prueban en dos bases de datos diferentes que consisten en Tuits (informal) y conversaciones de centros de llamadas (formal). Se obtienen precisiones del 75 % y del 68 % para el reconocimiento de género en documentos con una estructura informal y formal, respectivamente. Además, para el reconocimiento de variedad lingüística se obtuvieron precisiones del 92 % y del 72 % en documentos con una estructura informal y formal, respectivamente. Los resultados indican que, para los rasgos considerados, es posible transferir el conocimiento de un sistema entrenado en un tipo específico de expresiones a otro, donde la cantidad de datos es más escasa y su estructura es completamente diferente. <![CDATA[Impact of Clean Architecture and ISO/IEC 25010 on the Maintainability of Android Applications]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300226&lng=en&nrm=iso&tlng=en Resumen La constante actualización de los aplicativos móviles está relacionada con el desarrollo continuo que demandan las necesidades del usuario, la tecnología y, sobre todo, los nuevos dispositivos. En efecto, esta ininterrumpida evolución, y la complejidad misma del aplicativo, hace que su mantenimiento no garantice la estabilidad cuando se agregan nuevas funcionalidades o se actualicen las versiones del sistema operativo. El objetivo de este estudio fue establecer el impacto de la implementación de arquitectura limpia y de la norma ISO/IEC 25010 en la mantenibilidad del aplicativo móvil Educar Teacher. El diseño de la investigación fue ex post facto cuasi experimental de corte transversal, considerando los aplicativo Educar Teacher y CRM Distribución como grupo experimental y de control, respectivamente, donde se evaluó y se comparó la mantenibilidad de ambos, considerando como unidad de análisis los paquetes, clases y líneas de código. La variable independiente fue arquitectura limpia y norma ISO/IEC 25010, y la dependiente fue mantenibilidad, la cual se trabajó con los criterios de analizabilidad, estabilidad, testeabilidad y cambiabilidad. La muestra fue censal y estuvo conformada por 693 paquetes, 2037 clases y 168 217 líneas de código del aplicativo Educar Teacher. De acuerdo con los resultados, se concluye que al desarrollar con arquitectura limpia y norma ISO/IEC 25010, el aplicativo Educar Teacher logra una repercusión positiva en la mantenibilidad basado en los criterios de analizabilidad, estabilidad, testeabilidad y cambiabilidad de 7 %, 56 %, 0.7 %, 0.9 %, respectivamente.<hr/>Abstract The constant evolution of mobile applications is related to the continuous development demanded by user needs, technology and, especially, new devices. This continuous evolution and the complexity of the application itself, means that its maintenance does not guarantee stability when new functionalities are added, or versions of the operating system are updated. The aim of this study was to establish the impact of the implementation of Clean Architecture &amp; ISO/IEC 25010 on the maintainability of the Educar Teacher mobile application (www.icrmedu.com). The research design was quasi-experimental, cross-sectional, considering the Educar Teacher and CRM Distribution applications as experimental and control groups, respectively, where the maintainability of both was evaluated and compared, considering the packages, classes, and lines of code as the unit of analysis. The independent variable was Clean Architecture &amp; ISO/IEC 25010, and the dependent variable was maintainability, which was worked with the criteria of analyzability, stability, testability, and changeability. The sample was census-based and consisted of 693 packages, 2.037 classes and 168.217 lines of code from the Educar Teacher application. According to the results, it is concluded that by developing with Clean Architecture &amp; ISO/IEC 25010, the Educar Teacher application achieves a positive impact on maintainability based on the analyzability, stability, testability, and changeability criteria of 7 %, 56 %, 0.7 % and 0.9 %, respectively. <![CDATA[Analysis of Precipitation and Evaporation in the Colombian Orinoco According to the Regional Climate Models of the CORDEX-CORE Experiment]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300242&lng=en&nrm=iso&tlng=en Resumen Con el fin de representar la precipitación y evaporación total mensual en una cuenca hidrográfica del Orinoco colombiano, este trabajo evaluó la capacidad de los modelos climáticos regionales incluidos en el Experimento regional coordinado de reducción de escala (CORDEX-CORE). Para ello, complementariamente, se incluyeron datos de precipitación y evaporación total de fuentes como Climate Hazards Center InfraRed Precipitation with Station data (CHIRPS), el reanálisis atmosférico (ERA5), Global Precipitation Climatology Center (GPCC) y Global Land Evaporation Amsterdam Model (GLEAM). Las comparaciones entre los ensambles de los modelos y las observaciones se hicieron utilizando métodos gráficos y métodos cuantitativos, entre ellos: diagramas de cajas, porcentajes de sesgo, eficiencia de Nash-Sutcliffe, entre otros. Los resultados evidencian que los valores promedio de precipitación están adecuadamente representados, en términos de su temporalidad y magnitud, por el ensamble del modelo RegCM, mientras que los valores promedio de evaporación total están mejor representados por el ensamble del modelo REMO en términos de la temporalidad, más no en su magnitud. Por otra parte, las estimaciones de caudal de largo plazo evidencian que los valores de evaporación total proporcionados por los modelos permiten una adecuada estimación del caudal promedio de largo plazo, pero no la adecuada estimación del ciclo anual de caudales. Este trabajo es pionero en la evaluación de los datos de precipitación y evaporación total mensual suministrados por CORDEX-CORE en el Orinoco colombiano, sienta precedentes para la incorporación de datos de modelos regionales para fines hidrológicos en zonas poco instrumentadas del país, y es el primer paso hacia la evaluación de escenarios regionalizados de cambio climático.<hr/>Abstract We evaluate the capacity of the Regional Climate Models, included in the regional scale reduction experiment (CORDEX-CORE), to represent the monthly precipitation and evaporation in a watershed of the Colombian Orinoco region. In addition, we use precipitation and evaporation data from sources such as Climate Hazards Center InfraRed Precipitation with Station data, ERA5 atmospheric reanalysis, Global Precipitation Climatology Center and Global Land Evaporation Amsterdam Model. The comparisons between the assemblies of the RCMs and the observations were done using graphical and quantitative methods, among them: box plots, percentages of bias, Nash-Sutcliffe efficiency, among others. Our results allow concluding that the average precipitation values are adequately represented, in terms of their temporality and magnitude, by the assembly of the RegCM model while the average values of total evaporation are better represented by the assembly of the REMO model in terms of temporality, but not in its magnitude. Furthermore, the long-term flow estimation shows that the total evaporation values provided by the RCMs allow an adequate estimation of the long-term average flow, but not the adequate estimation of the annual flow cycle. This work is a pioneer in the evaluation of the monthly precipitation and evaporation data provided by CORDEX-CORE in the Colombian Orinoco, sets precedents for the incorporation of regional models data for hydrological purposes in poorly instrumented areas of the country, and is the first step towards the evaluation of regional climate change scenarios. <![CDATA[Advances in Research into Encapsulation through Ionic Gelation: A Systematic Review]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300262&lng=en&nrm=iso&tlng=en Resumen La encapsulación es una tecnología que proporciona barreras entre los compuestos de interés en un producto y el medio ambiente. Ella brinda una mejor estabilidad fisicoquímica durante el procesamiento y/o almacenamiento del producto, por lo tanto, ayuda a tener una menor degradación de los compuestos de interés, enmascara olores y sabores indeseables, controla la liberación del principio activo y puede incrementar su bioaccesibilidad y su biodisponibilidad. El objetivo de esta revisión fue recopilar y discutir la literatura reciente enfocada en investigaciones científicas sobre la encapsulación mediante gelación iónica de compuestos bioactivos, de microorganismos, de enzimas y su uso en diferentes aplicaciones de interés científico y/o industrial. La revisión bibliográfica se realizó en las principales bases de datos indexadas, utilizando descriptores como tamaño de cápsula, eficiencia de encapsulación, matrices mixtas, alginato de sodio y gelación iónica. De acuerdo con los resultados se observó que la utilización de este tipo de encapsulación presenta ventajas muy variables que se centran en la mejora de diversos factores como la biodisponibilidad de compuestos bioactivos, estabilidad de diferentes compuestos, características físicas, liberación del compuesto de interés y la protección contra efectos ambientales adversos. En conclusión, existe una amplia gama de aplicaciones que puede tener la metodología de gelación iónica para encapsular ingredientes alimenticios, microorganismos y fármacos, entre otros. Finalmente, el estudio pretende que esta revisión sea de utilidad en la dirección de investigaciones sobre gelación iónica, debido a la diversidad de aplicaciones abordadas durante la investigación.<hr/>Abstract Encapsulation, a technology that creates a barrier between a compound of interest and the environment, improves the physicochemical stability of products during processing and/or storage. Therefore, it helps to reduce the degradation of compounds of interest, masks undesirable odors and flavors, controls the release of the bioactive compound, and can increase its bioaccessibility and bioavailability. The objective of this review was to collect and discuss recent scientific literature about encapsulation by ionic gelation of bioactive compounds, microorganisms, and enzymes, as well as its use in different applications of scientific and/or industrial interest in several fields. A literature review was carried out in indexed databases using descriptors such as capsule size, encapsulation efficiency, mixture matrices, sodium alginate, and ionic gelation. The results show that using of this kind of encapsulation offers variable advantages regarding the bioavailability of bioactive compounds, the stability of different compounds, the improvement of physical characteristics, the release of compounds, and the protection against adverse environmental effects. In conclusion, the ionic gelation method can have a wide range of applications to encapsulate food ingredients, microorganisms, drugs, etc. This review can guide further research into ionic gelation because it examines the diversity of its applications. <![CDATA[Dissolved Air Flotation: A Review from the Perspective of System Parameters and Uses in Wastewater Treatment]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992021000300281&lng=en&nrm=iso&tlng=en Abstract The current issues of climate change and high freshwater demand worldwide have promoted the implementation of wastewater reclamation technologies. This study aims to review the efficiency of the dissolved air flotation (DAF) technique in a wide variety of applications in the agricultural, industrial, domestic, and municipal sectors, which have high freshwater consumption worldwide. We made a systematic review of the DAF technique in wastewater treatment in 2015-2021. We reviewed six indexed databases and governmental statistical reports; we used the keywords: dissolved air flotation, microbubbles, wastewater treatment, and the main operating and design parameters involved in the effectiveness of the flotation process. Additionally, we conducted a review of the most common synthetic coagulant studies used with DAF, as well as natural coagulants that promise to mitigate current climate change. Finally, we discussed advantages, disadvantages, and potential future studies. DAF to have considerable potential for wastewater treatment, as well as for waste utilization. The generation of large quantities of DAF sludge is a breakthrough for clean energy production, as it allows the use of this waste for biogas production.<hr/>Resumen La actual problemática de cambio climático y alta demanda de agua dulce a nivel mundial ha promovido la implementación de tecnologías para la regeneración de las aguas residuales. El objetivo de este estudio es revisar la eficiencia del sistema de flotación por aire disuelto (DAF) en una amplia variedad de aplicaciones en los sectores agrícola, industrial, doméstico y municipal, los cuales presentan un elevado consumo de agua dulce en el mundo. Por tal motivo se realizó una revisión sistemática de la técnica de DAF utilizada para el tratamiento de aguas residuales en el periodo 2015-2021. Se revisaron seis bases de datos indexadas y reportes estadísticos gubernamentales, las palabras claves fueron flotación por aire disuelto, microburbujas, tratamiento de aguas residuales y los principales parámetros de operación y diseño que intervienen en la eficacia del proceso de flotación, junto con un análisis de los estudios de coagulantes sintéticos más comunes utilizados con DAF, así como de los coagulantes naturales que prometen mitigar el cambio climático actual. Por último, se discuten las ventajas, los inconvenientes y los posibles estudios futuros. Se observó que DAF tiene un potencial considerable para el tratamiento de aguas residuales, así como para la utilización de residuos. La generación de grandes cantidades de lodos de DAF es una brecha para la producción de energía limpia, pues permite utilizar estos residuos para la producción de biogás.