Scielo RSS <![CDATA[Tecnura]]> http://www.scielo.org.co/rss.php?pid=0123-921X20220004&lang=pt vol. 26 num. 74 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[EDITORIAL]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400015&lng=pt&nrm=iso&tlng=pt <![CDATA[Parameter Determination of Coupled and Decoupled Admittance Matrix Methods of the Norton Equivalent Model for an Air Extractor]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400017&lng=pt&nrm=iso&tlng=pt RESUMEN Contexto: Estudios realizados en redes de baja tensión han explorado el modelado de cargas monofásicas lineales (como motores) y no lineales (como dispositivos basados en electrónica de potencia). No obstante, los motores de inducción presentan características no lineales entre tensión y corriente debido a la saturación de sus partes magnéticas. Por ello es necesario estudiar el motor de inducción en el dominio de la frecuencia con un modelo que permita revisar la no linealidad característica de su interacción tensión-corriente. Metodología: Este artículo presenta el modelado en el dominio de la frecuencia de un motor de inducción monofásico usado como extractor de aire silencioso (127 V, 60 Hz, 66 W), el cual presenta un comportamiento capacitivo (fp = 0,93 en adelanto) y distorsión armónica debido a una componente del tercer orden (7,0 %) al ser alimentado con una tensión sinusoidal pura de 127 V. Resultados: Este trabajo establece los parámetros de dos enfoques del modelo equivalente de Norton (matriz de admitancias acoplada y desacoplada) usados para estimar la señal de corriente distorsionada y los valores de potencia activa y no activa consumidas. Los resultados muestran errores de comparación de P, Q, índices THDi y NRMSE menores al 7, 4, 14 y 3% respectivamente. Conclusiones: Los parámetros del modelo equivalente de Norton estimados para el motor de inducción monofásico permiten calcular con un alto grado de precisión la señal de corriente, la cual presenta características no lineales y un comportamiento capacitivo por la presencia permanente de un capacitor que ayuda al arranque y funcionamiento del motor. Financiamiento: MINCIENCIAS<hr/>ABSTRACT Context: Studies carried out in low voltage networks have explored the modeling of linear single-phase loads (such as motors) and non-linear ones (such as those based on power electronics). However, induction motors exhibit non-linear characteristics between voltage and current due to the saturation of their magnetic parts. Therefore, it is necessary to study induction motors in the frequency domain with a model that allows reviewing the characteristic nonlinearity of their voltage-current interaction. Methodology: This article presents the frequency domain modeling of a single-phase induction motor used as a silent air extractor (127 V, 60 Hz, 66 W), which presents a capacitive behavior (fp = 0,93 in leading) and harmonic distortion due to a third-order component (7,0%) when fed with a pure sinusoidal voltage of 127 V. Results: This work establishes the parameters of two approaches to the Norton equivalent model (coupled and decoupled admittance matrix) which are used to estimate the distorted current signal and the values of consumed active and non-active power. The results show comparisons errors of P, Q, THDi, and NRMSE indices of less than 7, 4, 14, and 3%, respectively. Conclusions: The parameters of the Norton equivalent model estimated for the single-phase induction motor allow calculating the current signal with a high degree of precision. This signal exhibits nonlinear characteristics and a capacitive behavior due to the permanent presence of a capacitor aiding the start and operation of the engine. Funding: MINCIENCIAS <![CDATA[Firefly Algorithm for Facility Layout Optimization]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400035&lng=pt&nrm=iso&tlng=pt ABSTRACT Objective: This paper presents a review of the results obtained by an optimization methodology based on the application of the firefly algorithm (FA) as a metaheuristic planning tool with the purpose of finding the optimal facility layout in order to reduce the distances and flow times between processes of the production chain. Methodology: By means of implementing the MATLAB script, the goal was to evaluate the FA as applied to the facility layout distribution optimization problem, conducting a test of two facility layout cases with the algorithm. The FA was applied in order to evaluate the performance with respect to the initial facility layout configuration, as well as in comparison with a conventional heuristic algorithm. Results: The most relevant result was the verification of the FA’s degree of efficiency regarding the convergence time, as expressed in terms of the number of cycles required to reach an optimal solution in comparison with the conventional heuristic algorithm used for validation. Conclusions: The total optimized distance in the plant achieves a low significant value. A reduced number of iterations is required to reach an optimal value in the case of a complex facility layout.<hr/>RESUMEN Objetivo: Este artículo presenta una revisión de los resultados de una metodología de optimización enfocada en la aplicación del algoritmo de luciérnaga (FA) como una herramienta de planificación metaheurística con el fin de encontrar una distribución en planta óptima para reducir las distancias y los tiempos de flujo de procesos en la cadena de producción. Metodología: A través de la implementación del script de MATLAB, el objetivo fue evaluar el FA aplicado al problema de optimización de diseño de distribución en planta, realizando una prueba de dos casos de diseño de instalaciones con el algoritmo. Se aplicó el FA para evaluar el rendimiento con respecto a la configuración inicial de distribución en planta, así como en contraste con un algoritmo heurístico convencional. Resultados: El resultado más relevante fue la verificación del grado de eficiencia del FA con respecto al tiempo de convergencia, expresado en función de la cantidad de ciclos requeridos para alcanzar una solución óptima, en comparación con el algoritmo heurístico convencional utilizado para la validación. Conclusiones: La distancia total optimizada en la planta logra un valor bajo significativo. Se requiere un número reducido de iteraciones para alcanzar un valor óptimo en el caso de una distribución en planta compleja. <![CDATA[Project management model for IT consulting SMEs in Bogotá, based on agile frameworks]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400049&lng=pt&nrm=iso&tlng=pt Resumen Contexto: Las pymes, en general, cumplen un papel muy importante en la economía y en la generación de empleo para Colombia, como país en desarrollo. Particularmente inmersas en este gran conjunto de empresas se encuentran las pymes de consultoría informática, las cuales, dentro de las empresas asociadas al área de tecnologías de información, generaron las mayores ventas del sector para 2015 (Ministerio de las Tecnologías de la Información y las Comunicaciones de Colombia [MinTIC], 2015). Sin embargo, a pesar de su gran representación y crecimiento, uno de los principales factores que inciden en sus problemáticas son los métodos de gestión de proyectos utilizados; de hecho, autores como Silveira y Silva (2015) indican la creciente tendencia y necesidad de la adaptación de marcos ágiles en las empresas. Así mismo, Whitney y Daniels (2013) refuerzan la idea del potencial de la adopción de estas metodologías en proyectos de tecnologías de información (TI), debido a su flexibilidad ante situaciones cambiantes y maleabilidad frente a controles formales. Método: Como metodología se planteó la caracterización y definición de los aspectos críticos comunes sobre los proyectos gestionados del sector de consultoría informática, lo cual permitió continuar con la correlación de los aspectos críticos comunes identificados con marcos ágiles en gerencia de proyectos para así, usando la información obtenida, diseñar un modelo ágil en gerencia de proyectos para pymes de consultoría informática en Bogotá, finalizando con su respectiva validación. Resultados: Se diseñó y valido el modelo para pymes de consultoría informática en Bogotá, sobre un proyecto desarrollado por una de las empresas de la muestra representativa, que cumplía con las características del estudio, sobre el cual se observó un porcentaje de mejora del 77 %, en el tiempo de entrega, del 57 % en la gestión de costo sin afectaciones a su alcance, en cumplimiento con lo requerido por el cliente. Conclusiones: Tomando como base los resultados obtenidos al implementar el modelo desarrollado, se infiere que, al implementar el modelo en los proyectos desarrollados por empresas de consultoría informática en Bogotá (Colombia), pueden llegar a tener resultados satisfactorios en el desarrollo de sus proyectos, en cuanto al tiempo, costo y alcance, pues la validación permitió observar una mejora del 77 % en cuanto a las desviaciones de tiempo y un 57 % respecto a las desviaciones de costo precisando una mínima afectación al cumplimiento de los alcances comprometidos. Financiamiento: Universidad Militar Nueva Granada.<hr/>ABSTRACT Context: Small and medium enterprises (SMEs) are critic for economic development and job creation in Colombia, as a developing country. Specifically, those in the IT consulting subsector produced the highest profits in the technological area, according to the 2015 records (Ministerio de las Tecnologias de la Informacion y las Comunicaciones de Colombia, 2015). However, despite their growing rate and huge impact, one of the main factors that affects their problems is the selection of the project management method; actually, authors as Campanelli and Parreiras show a remarkable trend into the agile frameworks adaptation inside the companies (Silveira Campanelli &amp; Silva Parreiras, 2015). Also, Whitney and Daniels, strengthen the idea of the potential that have the agile framework on IT projects due to its flexibility when changing situations appear with respect to predictive methods (Whitney &amp; Daniels, 2013). Method: For the development of the research, it was proposed, to characterize and define the common critical aspects of the managed projects, correlate the common critical aspects identified, with agile frameworks in project management, design an agile model in project management for IT consulting SMEs in Bogotá and finally Validate the model developed. Result: As a result of the research carried out, the model for IT consulting SMEs in Bogotá was designed and validated, on a project developed by one of the companies in the representative sample, which met the characteristics of the study, on which a percentage was observed improvement of 77%, over time, 57% in costs and its scope was not affected, complying with what the client requires. Based on the results obtained when implementing the developed model. Conclusions: It is inferred that by implementing the model in the projects developed by IT consulting companies in Bogotá, they can have satisfactory results in the development of their projects, in terms of time, cost and scope. Support: Universidad Militar Nueva Granada <![CDATA[Colombian sign language recognition using convolutional neural networks and motion capture]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400070&lng=pt&nrm=iso&tlng=pt Resumen Contexto: Este articulo presenta el diseño de un modelo predictivo computacional que facilita el reconocimiento de la lengua de señas colombiana (LSC) en un entorno hotelero y turístico. Método: Se aplicaron técnicas de inteligencia artificial y redes neuronales profundas en el aprendizaje y la predicción de gestos en tiempo real, los cuales permitieron construir una herramienta para disminuir la brecha y fortalecer la comunicación. Se implementaron algoritmos de redes neuronales convolucionales sobre captura de datos en tiempo real. Se capturó movimiento mediante cámaras de video de dispositivos móviles; así, se obtuvieron las imágenes que forman el conjunto de datos. Las imágenes se utilizaron como datos de entrenamiento para un modelo computacional óptimo que puede predecir el significado de una imagen recién presentada. Resultados: Se evaluó el rendimiento del modelo usando medidas categóricas y comparando diferentes configuraciones para la red neuronal. Adicional a esto, todo está soportado con el uso de herramientas como Tensorflow, OpenCV y MediaPipe. Conclusiones: Se obtuvo un modelo capaz de identificar y traducir 39 señas diferentes entre palabras, números y frases básicas enfocadas al sector hotelero, donde se logró una tasa de éxito del 97,6 % en un ambiente de uso controlado. Agradecimientos: Universidad Pedagógica y Tecnológica de Colombia (UPTC).<hr/>ABSTRACT Context: This article presents the design of a computational predictive model that facilitates the recognition of Colombian Sign Language (LSC) in a hotel and tourism environment. Method: Artificial intelligence techniques and deep neural networks were applied in the learning and prediction of gestures in real time, which allowed the construction of a tool to reduce the gap and strengthen communication. Convolutional neural network algorithms were applied to real-time data capture. Movement was captured using mobile device video cameras, thus obtaining the images that make up the data set. The images were used as training data for an optimal computational model that can predict the meaning of a newly presented image. Results: The performance of the model was evaluated using categorical measures and comparing different configurations for the neural network. In addition to this, everything is supported with the use of tools such as Tensorflow, OpenCV and MediaPipe. Conclusions: Finally, a model capable of identifying and translating 39 different signs between words, numbers and basic phrases focused on the hotel sector was obtained, where a success rate of 97.6% was obtained in a controlled use environment. Acknowledgements: Pedagogical and Technological University of Colombia - UPTC <![CDATA[Comparative Methods for Solving Optimal Power Flow in Distribution Networks Considering Distributed Generators: Metaheuristics <em>vs.</em> Convex Optimization]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400087&lng=pt&nrm=iso&tlng=pt ABSTRACT Objective: This article presents an analysis of different optimization methodologies, which aims to make an objective comparison between metaheuristic and convex optimization methods in distribution networks, focusing on the inclusion of distributed generation (DG). The MATLAB software is used as a tool for implementation and obtaining results. The objective was to determine the optimal size of the DGs to be integrated into the networks, with the purpose of reducing the active power losses (objective function). Methodology: Based on the specialized literature, the methodologies are selected, and the bases and conditions for the implementation of the optimization techniques are determined. In the case of second-order cone programming (SOCP), the relaxation of the nonlinear optimal power flow (OPF) problem is performed in order to use convex optimization. Then, the structures of each technique are established and applied in the MATLAB software. Due to the iterative nature of metaheuristic methods, the data corresponding to 100 compilations for each algorithm are collected. Finally, by means of a statistical analysis, the optimal solutions for the objective function in each methodology are determined, and, with these results, the different methods applied to the networks are compared. Results: By analyzing 33- and 69-node systems, it is demonstrated that metaheuristic methods are able to effectively size DGs in distribution systems and yield good results that are similar and comparable to SOCP regarding the OPF problem. Genetic algorithms (GA) showed the best results for the studied implementation, even surpassing the SOCP. Conclusions: Metaheuristic methods proved to be algorithms with a high computational efficiency and are suitable for real-time applications if implemented in distribution systems with well-defined conditions. These techniques provide innovative ideas because they are not rigid algorithms, which makes them very versatile methods that can be adapted to any combinatorial optimization problem and software, yielding results even at the convex optimization level.<hr/>RESUMEN Objetivo: Este artículo presenta un análisis de diferentes metodologías de optimización, cuyo fin es realizar una comparación objetiva entre métodos de optimización metaheurística y convexa en redes de distribución con énfasis en la inclusión de generación distribuida (DG). Se utiliza el software MATLAB como herramienta para la implementación y la obtención de resultados. El objetivo es determinar el tamaño óptimo de las DG a integrar en las redes, con el fin de reducir las pérdidas de potencia activa (función objetivo). Metodología: A partir de la literatura especializada, se seleccionan las metodologías y se determinan las bases y condiciones para la implementación de las técnicas de optimización. En el caso de la programación cónica de segundo orden (SOCP), se realiza la relajación del problema de flujo de potencia óptimo (OPF) no lineal para utilizar optimización convexa. Luego, las estructuras de cada técnica se establecen y aplican en el software MATLAB. Debido al carácter iterativo de los métodos metaheurísticos, se recolectan los datos correspondientes a 100 compilaciones para cada algoritmo. Finalmente, mediante un análisis estadístico, se determinan las soluciones óptimas para la función objetivo en cada metodología y, con estos resultados, se comparan los diferentes métodos aplicados a las redes. Resultados: A partir del análisis de sistemas de 33 y 69 nodos, se demuestra que los métodos metaheurísticos son capaces de dimensionar DGs manera efectiva en sistemas de distribución y dan buenos resultados, similares y comparables a la SOCP en el problema OPF. El algoritmo genético (GA) mostró los mejores resultados para la implementación realizada, superando incluso a la SOCP. Conclusiones: Los métodos metaheurísticos demostraron ser algoritmos de alta eficiencia computacional y son adecuados para aplicaciones en tiempo real si se implementan en sistemas de distribución con condiciones correctamente definidas. Estas técnicas aportan ideas innovadoras porque no son algoritmos rígidos, lo que las convierte en métodos muy versátiles que pueden adaptarse a cualquier problema de optimización combinatoria y a cualquier software, dando resultados incluso a nivel de optimización convexa. <![CDATA[Evaluation of two types of adsorbents for the recovery of hydrocarbon vapors generated at the RECOPE plant in Ochomogo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400130&lng=pt&nrm=iso&tlng=pt Resumen Contexto: Al cargar el producto en los camiones cisterna, se generan vapores de hidrocarburos emitidos sin tratamiento al medio ambiente. Para evitar estas emisiones, se requiere un sistema que permita retener y recuperar estas sustancias, mediante el uso de un adsorbente capaz de retener los compuestos orgánicos volátiles generados en el patio de carga del plantel de distribución de combustibles en El Alto de Ochomogo, Cartago, Costa Rica. Método: Se analizó la composición de los vapores desplazados durante la carga de producto limpio, y se comparó la efectividad de remoción y recuperación de dos matrices de adsorbentes: Tenax® TA y Carbotrap® 317, al modificar el método estándar TO 17 de la Agencia de Protección Ambiental de Estados Unidos. Resultados: Con Tenax® TA se consiguió un 93,8 % de remoción; sin embargo, la mayoría de los compuestos atrapados estaban constituidos por cadenas superiores o iguales a siete átomos de carbono. Los tubos empacados con Carbotrap® 317 removieron un 99,9% de los compuestos de la muestra, reteniendo los compuestos con cadenas inferiores a los siete átomos de carbono de los vapores de gasolina. Las condiciones de acondicionamiento, atrapamiento y desorción del método modificado permitieron al Carbotrap® 317 retener y recuperar exitosamente compuestos similares a los que se están perdiendo durante la carga de los camiones cisterna. Conclusiones: Las condiciones de acondicionamiento, muestreo y desorción del método modificado permitieron a la matriz Carbotrap® 317 retener y recuperar exitosamente compuestos similares a los que se están perdiendo durante el llenado de los camiones cisterna.<hr/>ABSTRACT Context: When loading the product in the tanker trucks, hydrocarbon vapors are generated and released without treatment into the environment. To avoid these emissions, a system is required to retain and recover these substances through the use of an adsorbent capable of retaining the volatile organic compounds generated in the loading yard of the fuel distribution facility in Alto de Ochomogo, Cartago, Costa Rica Method: The composition of the displaced vapors was analyzed during the loading of clean product, and the removal and recovery effectiveness of two adsorbent matrices: Tenax® TA and Carbotrap® 317 was compared by modifying the standard method TO 17 of the United States Environmental Protection Agency. Results: With Tenax® TA, 93.8% removal was achieved; however, most of the trapped compounds consisted of chains greater than or equal to 7 carbon atoms. The tubes packed with Carbotrap® 317 removed 99.9% of the compounds in the sample, retaining compounds with chains less than 7 carbon atoms from gasoline vapors. The conditioning, entrapment and desorption conditions of the modified method allowed Carbotrap® 317 to successfully retain and recover compounds similar to those that are being lost during tank truck loading. Conclusions: The conditioning, sampling and desorption conditions of the modified method allowed the Carbotrap® 317 matrix to successfully retain and recover compounds similar to those that are being lost during tank truck loading. <![CDATA[Evaluation of the number of publications in computer science in South America in a period of 20 years.]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400149&lng=pt&nrm=iso&tlng=pt Resumen Contexto: La presente investigación se relaciona con el número de publicaciones y citaciones en ciencia computacional en Suramérica en los últimos veinte años. La medición de la producción científica es de gran impacto a fin de evaluar la producción de un país, al igual que los grupos de investigación, autores y centros universitarios entre otros aspectos. Método: La investigación se clasifica en descriptiva comparativa de tipo longitudinal. La información se recopiló de la plataforma SCImago Journal &amp; Country Rank, donde las variables evaluadas corresponden a los diferentes temas relacionados con el área de la ciencia computacional. El procesamiento estadístico de la información se realizó por medio de la técnica de clúster, análisis multivariado de la varianza (Manova), análisis Biplot por el método procrustes, complementado con la técnica no paramétrica de Spearman. Se empleó el paquete estadístico SAS University. Resultados: Brasil se diferencia estadísticamente respecto a las demás naciones del Cono Sur, en lo concerniente a la difusión científica en el área de las ciencias de la computación. Existe una relación directamente proporcional entre los diferentes temas evaluados; la mayor correlación entre naciones se dio entre Argentina, Brasil, Chile y Venezuela. Conclusiones: Brasil es el país de Suramérica con el mayor número de publicaciones y citaciones en las diferentes áreas de la ciencia de la computación, seguido de Argentina, Colombia y Chile, donde ciencias computacionales aplicadas tienen mayor impacto y la interacción persona ordenador es la de menor representación.<hr/>ABSTRACT Context: The present research is related to the number of publications and citations in computational science in South America in the last twenty years. The measurement of scientific production is of great impact in order to evaluate the production of a country, as well research groups, authors and university centers, among other aspects. Method: The research is classified as a longitudinal descriptive comparative study. The information was collected from the SCImago Journal &amp; Country Rank platform, where the variables evaluated correspond to the different topics related to the area of computer science. The statistical processing of the information was carried out by means of the cluster technique, multivariate analysis of variance (MANOVA), Biplot analysis by the Procrustes method, complemented with the nonparametric technique of Spearman. The SAS University statistical package was used. Results: Brazil is statistically different from the other nations of the southern part of the American continent in terms of scientific dissemination in the area of computer science. There is a directly proportional relationship between the different topics evaluated, the highest correlation between nations was between Argentina, Brazil, Chile and Venezuela. Conclusions: Brazil is the South American country with the highest number of publications and citations in the different areas of computer science, followed by Argentina, Colombia and Chile, where the topic with the highest impact corresponds to applied computational sciences and the lowest is related to human-computer interaction. <![CDATA[Location of a logistics operator for several periods of a planning horizon via linear programming]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400165&lng=pt&nrm=iso&tlng=pt Resumen Contexto: La ubicación de los operadores logísticos se puede convertir en una ventaja competitiva para las organizaciones, ya que garantiza su respuesta efectiva frente a los cambios de la sociedad. Método: En este trabajo se presenta la formulación del modelo de programación lineal para la ubicación de un operador logístico en cada uno de los periodos de un horizonte de planeación. Resultados: Se garantiza el cumplimiento de la ubicación del operador logístico con sus respectivas restricciones a un costo mínimo; además, se conservan las funciones claras de programación dinámica en todo el horizonte de planeación. Conclusiones: La programación lineal es una técnica de investigación de operaciones muy utilizada en todos los campos empresariales. Esta aplicación es utilizada para garantizar la ubicación del operador logístico de un periodo a otro, con la causación única de los costos necesarios que garantizar un total mínimo para este; lo cual se puede visualizar en los datos específicos utilizados.<hr/>Abstract Context: The location of logistics operators can become a competitive advantage for organizations as it guarantees their effective response to changes in society. Method: This paper presents the formulation of the linear programming model for the location of a logistics operator in each of the periods of a planning horizon. Results: Compliance with the location of the logistics operator with its respective restrictions at a minimum cost is guaranteed; in addition, to preserve the clear functions of dynamic programming throughout the planning horizon. Conclusions: Linear programming is an operations research technique widely used in all business fields; for which in this application it is used to guarantee the location of the logistics operator from one period to another with the sole causation of the necessary costs that guarantee a minimum total for it. This can be visualized based on the specific data used. <![CDATA[From Sustainable Development to Social Responsibility: A perspective of Scientific Production Indicators and General Interest in Spanish]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400190&lng=pt&nrm=iso&tlng=pt ABSTRACT Context: In the last decades, one has the impression that the term sustainable development has evolved towards social responsibility and that the activities carried out by organizations and institutions are very similar. Nevertheless, this paper presents a theoretical discussion of the contribution of social responsibility. The question of this research is: through indicators of general interest and scientific production, it is possible to determine the evolution of sustainable development towards social responsibility? Methodology: Using the non-participatory method of secondary data analysis, secondary data from articles in the Redalyc, WorldCat, Microsoft Academic, Scopus, and Web of Science databases and specialized books on the topics were analyzed. Google Ngram Viewer and Google Trends were used to compare the variations of the indicators of scientific production and interest. Results: Through secondary data analysis, it was possible to establish indicators of general interest and scientific production. A discussion is presented on the evolution of sustainable development towards social responsibility. Conclusions: The results showed that the evolution of sustainable development towards social responsibility was not surpassed over time, except at some moments and in specific geographical locations.<hr/>RESUMEN Contexto: En las últimas décadas, se tiene la impresión de que el término desarrollo sustentable ha evolucionado hacia la responsabilidad social y que las actividades que realizan las organizaciones e instituciones son muy similares. No obstante, este artículo presenta una discusión teórica sobre la contribución de la responsabilidad social. La pregunta de esta investigación es: a través de indicadores de interés general y producción científica, ¿es posible determinar la evolución del desarrollo sustentable hacia la responsabilidad social? Metodología: Utilizando métodos no participativos de análisis de datos secundarios, se analizaron datos secundarios de artículos en las bases de datos Redalyc, WorldCat, Microsoft Academic, Scopus, Web of Science y libros especializados en los temas. Se utilizaron Google Ngram Viewer y Google Trends para comparar las variaciones de los indicadores de interés general y producción científica. Resultados: A través del análisis de datos secundarios, fue posible establecer indicadores de interés general y producción científica. Se presenta una discusión sobre la evolución del desarrollo sustentable hacia la responsabilidad social. Conclusiones: Los resultados mostraron que la evolución del desarrollo sustentable hacia la responsabilidad social no fue superada a través del tiempo, salvo en algunos momentos y lugares geográficos específicos. <![CDATA[Human Activity Recognition via Feature Extraction and Artificial Intelligence Techniques: A Review]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2022000400213&lng=pt&nrm=iso&tlng=pt RESUMEN Contexto: En los últimos años, el reconocimiento de actividades humanas se ha convertido en un área de constante exploración en diferentes campos. Este artículo presenta una revisión de la literatura enfocada en diferentes tipos de actividades humanas y dispositivos de adquisición de información para el reconocimiento de actividades, y profundiza en la detección de caídas de personas de tercera edad por medio de visión computacional, utilizando métodos de extracción de características y técnicas de inteligencia artificial. Metodología: Este manuscrito se elaboró con criterios de la metodología de revisión y análisis documental (RAD), dividiendo el proceso de investigación en heurística y hermenéutica de las fuentes de información. Finalmente, se referenciaron 102 investigaciones que permitieron dar a conocer la actualidad del reconocimiento de actividades humanas. Resultados: El análisis de las técnicas propuestas para el reconocimiento de actividades humanas muestra la importancia de la detección eficiente de caídas. Si bien es cierto en la actualidad se obtienen resultados positivos con las técnicas descritas en este artículo, sus entornos de estudio son controlados, lo cual no contribuye al verdadero avance de las investigaciones. Conclusiones: Sería de gran impacto presentar resultados de estudios en entornos semejantes a la realidad, por lo que es primordial centrar el trabajo de investigación en la elaboración de bases de datos con caídas reales de personas adultas o en entornos no controlados.<hr/>ABSTRACT Context: In recent years, the recognition of human activities has become an area of constant exploration in different fields. This article presents a literature review focused on the different types of human activities and information acquisition devices for the recognition of activities. It also delves into elderly fall detection via computer vision using feature extraction methods and artificial intelligence techniques. Methodology: This manuscript was elaborated following the criteria of the document review and analysis methodology (RAD), dividing the research process into the heuristics and hermeneutics of the information sources. Finally, 102 research works were referenced, which made it possible to provide information on current state of the recognition of human activities. Results: The analysis of the proposed techniques for the recognition of human activities shows the importance of efficient fall detection. Although it is true that, at present, positive results are obtained with the techniques described in this article, their study environments are controlled, which does not contribute to the real advancement of research. Conclusions: It would be of great impact to present the results of studies in environments similar to reality, which is why it is essential to focus research on the development of databases with real falls of adults or in uncontrolled environments.