Scielo RSS <![CDATA[Revista Facultad de Ingeniería]]> http://www.scielo.org.co/rss.php?pid=0121-112920220003&lang=es vol. 31 num. 61 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Gestión de riesgos operacionales en el proceso de logística inversa del aceite vehicular usado]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300200&lng=es&nrm=iso&tlng=es Abstract Currently, supply chains seek to establish strategies for the recovery and reincorporation of products that reach the end of their useful life. However, in these reverse logistics operations, certain events might generate financial losses for the company and adverse effects harmful to the environment and the community. In this paper, an identification, prioritization and control process is carried out for the most representative operational risks in the reverse logistics process of used vehicle oil. There is a high volume of this waste generated within the country, and poor management of the activities of recovery can generate environmental, economic, and social problems. The methodology used for the risk management process involves using the fuzzy QFD multi-criteria tool to evaluate the most common operational events within the process using the assessment of experts in the sector. Subsequently, a series of mitigation strategies are designed using the Ishikawa diagram. Among the most relevant results found in the study is the fact that the most relevant risks in the reverse logistics of used vehicle oil are the inadequate storage process, the absence of an adequate vehicle for transport, and the low quality of the waste. The research carried out establishes a reference framework for the risk management process in companies dedicated to the use and reuse of products in a closed-loop supply chain.<hr/>Resumen En la actualidad, las cadenas de suministro buscan establecer estrategias para la recuperación y reincorporación de los productos que cumplen su vida útil, no obstante en estas operaciones de logística inversa se presentan eventos que pueden generar no solamente pérdidas financieras para la empresa, sino también efectos nocivos sobre el medio ambiente y la comunidad. En este documento se realiza un proceso de identificación, priorización y control para los riesgos operacionales más representativos en el proceso de logística inversa del aceite vehicular usado debido al alto volumen de este residuo que se genera dentro del país y cuya mala gestión de las actividades de recuperación puede generar problemas ambientales, económicos y sociales. La metodología utilizada para el proceso de gestión de riesgo implica el uso de la herramienta multicriterio QFD Fuzzy, para evaluar los eventos operacionales más comunes dentro del proceso usando la valoración de expertos en el sector, y posteriormente se diseña una serie de estrategias de mitigación a través del uso del diagrama Ishikawa. Entre los resultados más relevantes encontrados en el estudio se tiene el hecho de que los riesgos más relevantes en la logística inversa del aceite vehicular usado son el inadecuado proceso de almacenamiento, la ausencia de un vehículo adecuado para el transporte y la baja calidad del residuo. La investigación realizada establece un marco de referencia para el proceso de gestión del riesgo en compañías que se dediquen al aprovechamiento y reutilización de productos en una cadena de suministro de ciclo cerrado.<hr/>Resumo Atualmente, as cadeias de suprimentos buscam estabelecer estratégias para a recuperação e reincorporação de produtos que atingem sua vida útil, porém, nessas operações de logística reversa, ocorrem eventos que podem gerar não apenas prejuízos financeiros para a empresa, mas também efeitos negativos. meio ambiente e a comunidade. Neste documento, é realizado um processo de identificação, priorização e controle dos riscos operacionais mais representativos no processo de logística reversa de óleo veicular usado devido ao alto volume desse resíduo que é gerado dentro do país e cuja má gestão das atividades de recuperação pode gerar problemas ambientais, econômicos e sociais. A metodologia utilizada para o processo de gerenciamento de riscos envolve o uso da ferramenta multicritério QFD Fuzzy para avaliar os eventos operacionais mais comuns dentro do processo com a avaliação de especialistas do setor, e posteriormente uma série de estratégias de mitigação são desenhadas através da uso do diagrama de Ishikawa. Entre os resultados mais relevantes encontrados no estudo está o fato de que os riscos mais relevantes na logística reversa de óleo veicular usado são o processo de armazenamento inadequado, a ausência de um veículo adequado para o transporte e a baixa qualidade dos resíduos. A pesquisa realizada estabelece um quadro de referência para o processo de gestão de risco em empresas que se dedicam à utilização e reutilização de produtos numa cadeia de abastecimento de ciclo fechado. <![CDATA[Herramienta para la automatización de la evaluación de repositorios institucionales]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300201&lng=es&nrm=iso&tlng=es Abstract The rise of digital repositories has framed a significant advance in access to academic and scientific knowledge, increasing its impact due to greater reach and lower cost. However, these platforms are a new topic that initially did not have standards or models to carry out their implementation and operation, which is why there were inconsistencies between repositories on issues such as interoperability, digital preservation, among others. Due to the lack of standardization and the exponential increase in the number of repositories, different organizations and researchers made multiple proposals to standardize the processes and characteristics of these platforms. The proposals materialized in models, such as the Dublin Core and DataCite metadata schemes, and in guides for the evaluation and implementation of repositories, such as the "Guide for the evaluation of institutional research repositories" by RECOLECTA or the DINI certificate (Deutsche Initiative für Netzwerk Information). The latter aim to evaluate the platforms in their entirety, including 8 sections with a total of 87 elements. Therefore, in this research an application was developed to automate the evaluation of repositories, automating processes that improve educational work using computer tools and their integration.<hr/>Resumen El auge de los repositorios digitales ha enmarcado un avance significativo en el acceso al conocimiento académico y científico, aumentando su impacto debido a un mayor alcance y un menor costo. Sin embargo, estas plataformas son un tema novedoso que en un principio no contó con estándares o modelos para llevar a cabo su implementación y funcionamiento, por lo cual se presentaron inconsistencias entre repositorios en temas como interoperabilidad, preservación digital, entre otros. A causa de la falta de normalización y el incremento exponencial de la cantidad de repositorios, diferentes organizaciones e investigadores realizaron múltiples propuestas para estandarizar los procesos y características de dichas plataformas. Las propuestas se materializaron en modelos, como los esquemas de metadatos Dublin Core y DataCite, y en guías para la evaluación e implementación de repositorios, como la “Guía para la evaluación de repositorios institucionales de investigación” de RECOLECTA o el certificado DINI (Deutsche Initiative für Netzwerk Information). Estas últimas pretenden evaluar las plataformas en su totalidad incluyendo 8 apartados con un total de 87 elementos. Por lo anterior, en esta investigación se desarrolló un aplicativo para la automatización de la evaluación de repositorios, automatizando procesos que mejorar el quehacer educativo mediante el uso de herramientas informáticas y la integración de estas.<hr/>Resumo A ascensão dos repositórios digitais tem enquadrado um avanço significativo no acesso ao conhecimento acadêmico e científico, aumentando seu impacto devido ao maior alcance e menor custo. No entanto, essas plataformas são um tema novo que inicialmente não possuía padrões ou modelos para realizar sua implementação e operação, razão pela qual havia inconsistências entre os repositórios em questões como interoperabilidade, preservação digital, entre outras. Devido à falta de padronização e ao aumento exponencial do número de repositórios, diferentes organizações e pesquisadores fizeram várias propostas para padronizar os processos e características dessas plataformas. As propostas materializadas em modelos, como os esquemas de metadados Dublin Core e DataCite, e em guias de avaliação e implementação de repositórios, como o "Guia para a avaliação de repositórios institucionais de investigação" da RECOLECTA ou o certificado DINI (Deutsche Initiative für Informações Netzwerk). Estes últimos visam avaliar as plataformas na sua totalidade, incluindo 8 secções com um total de 87 elementos. Portanto, nesta pesquisa foi desenvolvido um aplicativo para automatizar a avaliação de repositórios, automatizando processos que melhoram o trabalho educacional por meio do uso de ferramentas computacionais e sua integração. <![CDATA[Determinación teórica y práctica de una mezcla binaria de polvos de acero AISI 316 para aumentar la resistencia a la corrosión en piezas pulvimetalúrgicas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300202&lng=es&nrm=iso&tlng=es Abstract Powder metallurgical steels have lower corrosion resistance compared to wrought steels. Their behavior is simultaneously affected by interconnected porosity, pore morphology, interaction with sintering atmospheres, and metallurgical phenomena such as steel 'sensitization'. This work presents the theoretical methodology to calculate the optimum composition of the mixture and the conditions for a maximum packing of two sizes spheres (assuming a spherical shape factor) according to the development published by Brouwers for a system of binary mixtures. For the theoretical determination of the mixture, the results of density and porosity of a 316 powder metallurgical stainless steel made from prealloyed powders of two average granulometries (45μm and 150μm) are presented. The powders were combined in different proportions to define the appropriate quantities that allow the manufacture of steel with a low corrosion rate. The obtained results confirm that the theoretical calculation is a reliable alternative to formulate powder metallurgical alloys since good particle packing is achieved, which has a favorable effect on the characteristics of the finished product.<hr/>Resumen Los aceros pulvimetalúrgicos tienen una menor resistencia a la corrosión en comparación con los aceros forjados. Su comportamiento se ve afectado simultáneamente por la porosidad interconectada, la morfología de los poros, la interacción con las atmósferas de sinterización y fenómenos metalúrgicos como la "sensitización" del acero. Este trabajo presenta la metodología teórica para calcular la composición óptima de una mezcla y las condiciones requeridas para obtener un empaquetamiento máximo de esferas de dos tamaños promedio de partículas (asumiendo un factor de forma esférico) según la investigación publicada por Brouwers para un sistema de mezclas binarias. Para la determinación teórica de la mezcla se presentan los resultados de densidad y porosidad de un acero inoxidable pulvimetalúrgico 316 elaborado a partir de polvos prealeados de dos granulometrías promedio (45μm y 150μm). Los polvos se combinaron en diferentes proporciones, con el fin de definir las cantidades adecuadas que permitan fabricar un acero con bajos valores de su velocidad de corrosión. Los resultados obtenidos confirman que el cálculo teórico es una alternativa confiable para formular aleaciones pulvimetalúrgicas, ya que se logra un alto empaquetamiento de partículas, lo cual incide favorablemente en las características del producto terminado.<hr/>Resumo Os aços metalúrgicos em pó apresentam menor resistência à corrosão em comparação aos aços forjados. Seu comportamento é afetado simultaneamente pela porosidade interligada, morfologia dos poros, interação com atmosferas de sinterização e fenômenos metalúrgicos como a "sensibilização" do aço. Este trabalho apresenta a metodologia teórica para calcular a composição ótima de uma mistura e as condições necessárias para obter um empacotamento máximo de esferas de dois tamanhos médios de partículas (assumindo um fator de forma esférica) de acordo com a pesquisa publicada por Brouwers para um sistema de misturas. binário. Para a determinação teórica da mistura, são apresentados os resultados de densidade e porosidade de um aço inoxidável metalúrgico de pó 316 feito a partir de pós pré-ligados de duas granulometrias médias (45μm e 150μm). Os pós foram combinados em diferentes proporções, a fim de definir as quantidades adequadas que permitam a fabricação de um aço com baixos valores de sua taxa de corrosão. Os resultados obtidos confirmam que o cálculo teórico é uma alternativa confiável para formular ligas metalúrgicas do pó, uma vez que se consegue um alto empacotamento de partículas, o que afeta favoravelmente as características do produto acabado. <![CDATA[Estrategia basada en la metodología Computer-Supported Collaborative Learning para la formación de grupos de trabajo automáticos en un curso de introducción a la programación (CS1)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300203&lng=es&nrm=iso&tlng=es Abstract Students of the Introduction to Programming courses present low grades and this is reflected by the high failure and academic desertion rates. In this sense, looking for ways to improve and support the student's academic performance in the Fundamentals of Object-Oriented Programming (FPOO) course, a strategy based on Computer-Supported Collaborative Learning (CSCL) is proposed. It is supported by an algorithm to form workgroups automatically, which allows motivating students and creates a uniform criterion to develop programming tasks. Under the framework of the quasi-experimental design, the strategy was implemented in different evaluative activities of the FPOO course, which allowed us to answer questions related to the improvement of a student's final grade using the automatic formation of workgroups versus the traditional formation of workgroups. Moreover, we compared the grades obtained when activities are developed with no group formation. The experiments in this paper show that using the collaborative strategy improves students' grades by 22% in the laboratories and by 20% in the final project. In addition, it allows the exchange of knowledge to solve a programming task. This paper concludes that developing strategies that integrate collaboration positively impacts the programming learning process and improves student grades and people skills significantly, which encourage a better learning in programming courses.<hr/>Resumen Los cursos de Introducción a la programación presentan bajas calificaciones de los estudiantes, esto se refleja en las altas tasas de mortalidad y deserción académica. En este sentido, buscando formas de mejorar y apoyar el rendimiento académico de los estudiantes del curso CS1 - Fundamentos de Programación Orientada a Objetos (FPOO), este artículo propone una estrategia basada en la metodología Computer-Supported Collaborative Learning (CSCL) apoyada por un algoritmo para la formación de grupos de trabajo automáticos, que busca motivar a los estudiantes y permite adquirir conocimientos de forma homogénea en el desarrollo de actividades de programación. Bajo el marco del diseño cuasi experimental, se implementó la estrategia para diferentes actividades evaluativas en el curso FPOO, que permitió responder cuestiones relacionadas con la mejora de la calificación final de un estudiante utilizando la formación de grupos de trabajo automáticos en comparación a la formación de grupos de trabajo tradicional, y los resultados que se generan en las calificaciones cuando se desarrollan actividades sin formación de grupos. Los experimentos de este trabajo demuestran que el uso de la estrategia de colaboración mejora las calificaciones de los estudiantes en 22% en laboratorios y 20% en el proyecto final. Además, permite intercambiar conocimientos para resolver una tarea de programación. Finalmente, en este trabajo se concluye que el desarrollo de estrategias que integran la colaboración impacta positivamente en el proceso de aprendizaje de programación, mejorando significativamente las calificaciones del estudiante y las habilidades interpersonales que incentivan a mejorar el aprendizaje en los cursos de programación.<hr/>Resumo Os cursos de Introdução à Programação apresentam baixas notas dos alunos, isso se reflete nas altas taxas de mortalidade e deserção acadêmica. Nesse sentido, buscando formas de melhorar e apoiar o desempenho acadêmico dos alunos do curso CS1 - Fundamentos de Programação Orientada a Objetos (FPOO), este artigo propõe uma estratégia baseada na metodologia Computer-Supported Collaborative Learning (CSCL) apoiada por um algoritmo para a formação de grupos de trabalho automáticos, que procura motivar os alunos e permitir-lhes adquirir conhecimentos de forma homogénea no desenvolvimento das atividades de programação. No quadro do desenho quase-experimental, foi implementada a estratégia de diferentes atividades avaliativas no curso da FPOO, que permitiu responder a questões relacionadas com a melhoria da nota final de um aluno através da formação de grupos de trabalho automáticos em comparação com a formação de grupos de trabalho tradicionais e os resultados que são gerados nas capacitações quando as atividades são desenvolvidas sem a formação de grupos. Os experimentos deste trabalho mostram que o uso da estratégia colaborativa melhora as notas dos alunos em 22% nos laboratórios e 20% no projeto final. Além disso, permite a troca de conhecimento para resolver uma tarefa de programação. Por fim, este artigo conclui que o desenvolvimento de estratégias que integrem a colaboração tem um impacto positivo no processo de aprendizagem de programação, melhorando significativamente as notas dos alunos e as habilidades interpessoais que incentivam um melhor aprendizado nos cursos de programação. <![CDATA[Sistema IoT para la monitorización y análisis de variables fisiológicas en deportistas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300204&lng=es&nrm=iso&tlng=es Abstract IoT has had a wide diffusion in monitoring variables of interest in applications such as health, agriculture, environment, and industry, among others. In the context of sport, although wearable devices can monitor physiological variables, they are limited by the fact that they are linked to proprietary applications, have limited storage and perform analyses based on descriptive statistics without including the application of data analytics models. In this paper, we present the construction of an IoT system for monitoring and analysing physiological variables in athletes based on the use of unsupervised learning models. This system is articulated in the IoT four-layer architecture (capture, storage, analysis and visualization). It has the advantage of benefiting from the data provided by commercial devices, storing them in a non-relational database and applying clustering algorithms to the historical data. The proposed system is intended to serve as a reference to be replicated in sports training contexts in order to take advantage of the data provided by commercial wearable devices for decision-making based on the use of machine learning models.<hr/>Resumen IoT ha tenido una amplia difusión en la monitorización de variables de interés en diferentes ámbitos de aplicación tales como: salud, agricultura, medio ambiente, industria, entre otros. En el contexto del deporte, aunque los dispositivos “wearables” permiten monitorizar variables fisiológicas, tienen como limitación el hecho de estar vinculados a aplicaciones propietarias, así como un almacenamiento limitado y realizar análisis basados en estadística descriptiva, sin incluir la aplicación de modelos de analítica de datos. Este artículo presenta como aporte la construcción de un sistema IoT para la monitorización y análisis de variables fisiológicas en deportistas, a partir del uso de modelos de aprendizaje no supervisado. Este sistema está articulado en la arquitectura de cuatro capas de IoT (captura, almacenamiento, análisis y visualización) y tiene como ventaja el aprovechamiento de los datos proporcionados por dispositivos comerciales, el almacenamiento de estos en una base de datos no relacional y la aplicación de algoritmos de clustering sobre el histórico de los datos. El sistema propuesto, pretende servir de referencia para ser replicado en contextos de entrenamiento deportivo, de cara a aprovechar los datos suministrados por dispositivos “wearables” comerciales para la toma de decisiones, a partir del uso de modeles de machine learning.<hr/>Resumo IoT tem sido amplamente utilizada na monitorização de variáveis de interesse em diferentes campos de aplicação tais como saúde, agricultura, ambiente, indústria, entre outros. No contexto do desporto, embora os dispositivos vestíveis permitam a monitorização de variáveis fisiológicas, são limitados pelo facto de estarem ligados a aplicações proprietárias, têm armazenamento limitado e efectuam análises baseadas em estatísticas descritivas, sem incluir a aplicação de modelos analíticos de dados. Este artigo apresenta como uma contribuição a construção de um sistema IoT para a monitorização e análise de variáveis fisiológicas em atletas, com base na utilização de modelos de aprendizagem não supervisionados. Este sistema baseia-se na arquitectura de quatro camadas de IoT (captura, armazenamento, análise e visualização) e tem a vantagem de aproveitar os dados fornecidos por dispositivos comerciais, armazenando-os numa base de dados não-relacional e aplicando algoritmos de clustering nos dados históricos. O sistema proposto destina-se a servir de referência para ser reproduzido em contextos de formação desportiva, a fim de tirar partido dos dados fornecidos por dispositivos comerciais vestíveis para a tomada de decisões, com base na utilização de modelos de aprendizagem de máquinas. <![CDATA[Acercamiento a las buenas prácticas para el desarrollo de software basado en DevOps y SCRUM utilizadas en empresas muy pequeñas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300205&lng=es&nrm=iso&tlng=es Abstract Very small entities in software development have a maximum of 25 employees. Their cash flow and time available for implementing improvements in their processes to enable them to be more competitive are limited, leading them to turn to agile frameworks such as SCRUM to manage the software development process. However, when they try to adopt these, they find that the documents only suggest changes that can be made and not how to make them. As a result, the trial and error process of discovering which techniques, events and artifacts ought to be implemented is costly and, in some cases, unfeasible. The same applies to other frameworks that can complement SCRUM, such as DevOps, a framework that proposes a rapprochement between the development and operations areas, in which as many tasks as possible are automated, and quality controls are increased to obtain better quality products. This article presents three best practices based on DevOps, its models of use and when these can be used within SCRUM to facilitate its adoption in the smallest companies. A model is presented for the use of versioning, integration, and continuous deployment and the particular moments recommended for implementing these within SCRUM. The best practices most widely reported in the literature for software development based on SCRUM and DevOps were identified. Three were then selected, and a usage model was built for each of them. Then, they were evaluated using a case study, and the results were assessed. The practices were evaluated in three (3) very small entities, obtaining changes in the support cases reported weekly and in the number of successful deployments. The division of the development process into phases reveals that the development and quality phase provides more possibilities for splicing among the set of practices suggested by DevOps in SCRUM. Likewise, the set of suggested practices points to the implementation of controls for quality assurance, providing key information for development team learning and improvement.<hr/>Resumen Las empresas muy pequeñas de desarrollo de software poseen un máximo de 25 empleados y tienen un limitado flujo de caja y tiempo para implementar mejoras en sus procesos que les permita ser más competitivos. Esta es una de las razones por las que estas empresas recurren a la implementación de marcos de trabajo ágil como SCRUM para gestionar el proceso de desarrollo de software. Pero cuando inician su adopción, encuentran que los documentos solo sugieren los cambios que se pueden realizar, pero no como hacerlos, tornando el proceso de descubrir cuales técnicas, eventos y artefactos son los que deben implementar en un enfoque de prueba y error costoso y en algunos casos inviable. Lo mismo sucede con otros marcos que pueden ser complementarios a SCRUM como DevOps, que propone un acercamiento entre el área de desarrollo y operaciones, donde se automaticen la mayor cantidad de tareas y se incrementen los controles de calidad para obtener mejores productos. Este artículo expone tres buenas prácticas basadas en DevOps, sus modelos de uso y en qué momentos dentro de SCRUM pueden ser utilizadas para facilitar su adopción en estas empresas. Se tiene como como objetivo exponer un modelo para el uso de versionamiento, integración y despliegue continuos y los momentos recomendados para su implementación dentro de SCRUM. Se identificaron las buenas prácticas más reportadas en la literatura para desarrollo de software basado en SCRUM y DevOps. Se seleccionaron tres de las mejores prácticas y se construyó un modelo de uso para cada una de ellas. Estas prácticas se pusieron a prueba mediante un caso de estudio y se evaluaron los resultados obtenidos. Las prácticas fueron evaluadas en 3 empresas, obteniendo cambios en los casos de soporte reportados semanalmente y en el número de despliegues exitosos. La división del proceso de desarrollo en fases evidencia que la fase que representa mayor posibilidad de empalme entre el conjunto de prácticas sugeridas por DevOps en SCRUM es la de desarrollo y calidad. El conjunto de prácticas sugeridas apunta a la implementación de controles para el aseguramiento de la calidad entregando información clave para el aprendizaje y mejora del equipo de desarrollo.<hr/>Resumo As empresas de desenvolvimento de software muito pequenas têm no máximo 25 funcionários e possuem fluxo de caixa e tempo limitados para implementar melhorias em seus processos que lhes permitam ser mais competitivas. Essa é uma das razões pelas quais essas empresas recorrem à implementação de frameworks ágeis como o SCRUM para gerenciar o processo de desenvolvimento de software. Mas quando iniciam sua adoção, descobrem que os documentos apenas sugerem as mudanças que podem ser feitas, mas não como fazê-las, tornando o processo de descoberta de quais técnicas, eventos e artefatos são os únicos a serem implementados em uma tentativa e erro dispendiosa abordagem e, em alguns casos, inviável. O mesmo acontece com outros frameworks que podem ser complementares ao SCRUM, como o DevOps, que propõe uma aproximação entre a área de desenvolvimento e operações, onde o maior número de tarefas é automatizado e os controles de qualidade são aumentados para obter melhores produtos. Este artigo expõe três boas práticas baseadas em DevOps, seus modelos de uso e quando dentro do SCRUM podem ser utilizados para facilitar sua adoção nessas empresas. O objetivo é expor um modelo para uso de versionamento, integração e deployment contínuos e os momentos recomendados para sua implementação dentro do SCRUM. Foram identificadas as boas práticas mais relatadas na literatura para desenvolvimento de software baseado em SCRUM e DevOps. Três das melhores práticas foram selecionadas e um modelo de uso foi construído para cada uma delas. Estas práticas foram postas à prova através de um estudo de caso e os resultados obtidos foram avaliados. As práticas foram avaliadas em 3 empresas, obtendo mudanças nos casos de suporte relatados semanalmente e no número de implantações bem-sucedidas. A divisão do processo de desenvolvimento em fases mostra que a fase que representa a maior possibilidade de junção entre o conjunto de práticas sugeridas pelo DevOps no SCRUM é a de desenvolvimento e qualidade. O conjunto de práticas sugeridas aponta para a implantação de controles para garantia da qualidade, fornecendo informações fundamentais para aprendizado e aprimoramento da equipe de desenvolvimento. <![CDATA[Construcción de un escenario de transmisión de video en redes definidas por software para la estimación de la QoE]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300206&lng=es&nrm=iso&tlng=es Abstract The services supported by data networks have become widespread, so the architectures of the new data networks are service-oriented. They are endowed with intelligence, flexibility, and programmability. The preceding is with the aim of providing acceptability by users. Thus, this paper presents the construction of a video transmission scenario over a software-defined network (SDN, Software-Defined Networking) using free software and modifying its behavior with background traffic, on which the Quality of Experience (QoE) is estimated. Subjective and objective metrics were used for the QoE estimation. For the first one, the Mean Opinion Score (MOS) was used, while the second one was studied with the Full Reference Image Quality Assessment (FR-IQA). Finally, a correlation between the two types of metrics was proposed.<hr/>Resumen Los servicios soportados por las redes de datos se han masificado por lo que las arquitecturas de las nuevas redes de datos están orientadas a servicios, dotadas de inteligencia, flexibilidad y programabilidad. Lo anterior con el objetivo de brindar la aceptabilidad por parte de los usuarios de los servicios. Así, en este artículo se presenta la construcción de un escenario de transmisión de video sobre una red definida por software (SDN, Software-Defined Networking) utilizando software libre y modificando su comportamiento con tráfico de fondo, sobre el que se estima la calidad de experiencia (QoE, Quality of Experience). Para la estimación de la QoE se usaron métricas subjetivas y objetivas. Para la primera de ellas se usa la puntuación de opinión media (MOS, Mean Opinion Score), mientras que las segundas se estudian a partir de las mediciones de calidad de imagen con referencia completa (IQA-FR, Image Quality Assessment Full-Reference). Finalmente, se propone una correlación entre los dos tipos de métricas.<hr/>Resumo Os serviços suportados pelas redes de dados se difundiram, de modo que as arquiteturas das novas redes de dados são orientadas a serviços, dotadas de inteligência, flexibilidade e programabilidade. O anterior com o objetivo de fornecer aceitabilidade pelos usuários dos serviços. Assim, este artigo apresenta a construção de um cenário de transmissão de vídeo sobre uma rede definida por software (SDN, Software-Defined Networking) utilizando software livre e modificando -seu comportamento com tráfego de fundo, no qual se estima a qualidade da transmissão. Qualidade da Experiência). Métricas subjetivas e objetivas foram utilizadas para a estimativa de QoE. Para o primeiro deles, utiliza-se o Mean Opinion Score (MOS), enquanto os segundos são estudados a partir das medidas de referência completa da avaliação da qualidade da imagem (IQA-FR, Image Quality Assessment Full-Reference). Por fim, é proposta uma correlação entre os dois tipos de métricas. <![CDATA[Modelo adaptativo de clasificación de profesiones en sistemas de orientación vocacional]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292022000300207&lng=es&nrm=iso&tlng=es Abstract Vocational guidance is part of psychosocial development and is understood as a method that helps to determine the most appropriate profession according to the aptitudes and abilities of the student. The processes of vocational guidance are dynamic and focus on educating and favoring the decision-making process in the professional choice for a learning pathway throughout the student's life, which will benefit society in the long run. Most of the current solutions, both theoretical and applied, from Europe and North America differ when used in the Colombian context, mainly for adults, since the process of classifying professions is not accurate nor precise. In addition, there are various educational projects and evaluation systems in secondary education level institutions. At this level, the students have a changing vocational choice which implies taking into account specific characteristics of the context, also, the student profile vocational guidance determinants. The objective of this article is to describe the adaptive model of occupational classification integrated into the Intelligent Web Platform used in educational institutions in the Department of Cauca. The use of the CRISP-DM methodology allowed finding the Naive Bayes and Deep learning algorithms as those with the best performance in the classification of professions.<hr/>Resumen La orientación vocacional forma parte del desarrollo psicosocial y se entiende, como un método que ayuda a determinar la profesión más adecuada, en función de las aptitudes y capacidades de los estudiantes. Los procesos de orientación vocacional, son dinámicos y se enfocan en educar y favorecer el proceso de toma de decisiones en la elección profesional. proporcionándoles un camino de aprendizaje claro para seguir a lo largo de su vida y para que la sociedad se beneficie de su talento enfocado. La mayoría de soluciones actuales, teóricas y de aplicación, de Europa y Norteamérica, difieren al utilizarse en el contexto colombiano, principalmente para adultos, las cuales en términos del proceso de clasificación de profesiones presentan bajos niveles de exactitud y precisión. Además, existen diversos proyectos educativos y sistemas de evaluación en los centros de enseñanza secundaria. En este nivel de educación, los estudiantes tienen una decisión vocacional cambiante que implica tener en cuenta características específicas del contexto, también, los determinantes su perfil de orientación vocacional. El objetivo del presente artículo es describir el modelo adaptativo de clasificación de profesiones, integrado a la Plataforma Web Inteligente, utilizada en instituciones educativas del Departamento del Cauca. El uso de la metodología CRISP-DM permitió encontrar los algoritmos de Naive Bayes y Deep learning como los de mejor desempeño en la clasificación de profesiones.<hr/>Resumo A orientação profissional faz parte do desenvolvimento psicossocial e é entendida como um método que ajuda a determinar a profissão mais adequada, com base nas aptidões e habilidades dos alunos. Os processos de orientação profissional são dinâmicos e têm como foco educar e favorecer a tomada de decisão na escolha profissional. proporcionando-lhes um caminho claro de aprendizado para seguir ao longo de sua vida e para que a sociedade se beneficie de seu talento focado. A maioria das soluções atuais, teóricas e aplicadas, da Europa e América do Norte, diferem quando utilizadas no contexto colombiano, principalmente para adultos, que em termos de processo de classificação de profissões apresentam baixos níveis de exatidão e precisão. Além disso, existem vários projetos educacionais e sistemas de avaliação nas escolas secundárias. Neste nível de ensino, os alunos têm uma decisão vocacional em mudança que implica ter em conta características específicas do contexto, bem como os determinantes do seu perfil de orientação vocacional. O objetivo deste artigo é descrever o modelo adaptativo de classificação de profissões, integrado à Plataforma Web Inteligente, utilizado em instituições educacionais do Departamento de Cauca. A utilização da metodologia CRISP-DM permitiu encontrar os algoritmos Naive Bayes e Deep learning como os de melhor desempenho na classificação de profissões.