Scielo RSS <![CDATA[Revista Facultad de Ingeniería]]> http://www.scielo.org.co/rss.php?pid=0121-112920250001&lang=pt vol. 34 num. 71 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[RECONHECIMENTO DA LÍNGUA DE SINAIS COLOMBIANA POR MEIO DE REDES NEURAIS COM MEMÓRIA DE LONGO E CURTO PRAZO]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292025000118059&lng=pt&nrm=iso&tlng=pt RESUMEN Este estudio explora el uso de redes neuronales de memoria larga a corto plazo para el reconocimiento del la lengua de señas colombiana. Abarca tanto señas estáticas (letras) como dinámicas (palabras). Los resultados muestran que el modelo alcanzó una precisión del 90 % en el reconocimiento de letras y del 82 % en palabras, y se logró identificar en promedio 27 señas independientes. Se analizaron, además, distintas estrategias de extracción de características espaciotemporales por medio de MediaPipe y se encontró que para detectar señas estáticas solo bastan los puntos de control de manos y para señas dinámicas se necesitan los puntos de control de manos y postura. Sin embargo, los resultados no superaron el 90 % de precisión alcanzado en estudios internacionales, lo que sugiere que la calidad y cantidad del conjunto de datos utilizado podría mejorarse. Como trabajo futuro, se plantea evaluar el desempeño del modelo en tiempo real, con el fin de facilitar la comunicación entre personas sordas y oyentes. También se recomienda explorar arquitecturas de aprendizaje profundo más avanzadas, como redes convolucionales de gráficos, redes neuronales transformer o combinaciones de red neuronal convolucional con memoria larga a corto plazo; estas han mostrado buenos resultados en el reconocimiento de signos dinámicos.<hr/>ABSTRACT This study explores the use of long short-term memory neural networks for the recognition of Colombian sign language. It covers both static (letters) and dynamic (word) signs. The results show that the model achieved 90% accuracy in letter recognition and 82% in words, identifying an average of 27 independent signs. In addition, different strategies for extracting spatiotemporal features using MediaPipe were analyzed, and it was found that to detect static signs only the hand control points are sufficient, and for dynamic signs the hand and posture control points are needed. However, the results did not exceed the 90% accuracy achieved in international studies, suggesting that the quality and quantity of the data set used could be improved. As future work, it is proposed that the model's performance be evaluated in real time to facilitate communication between deaf and hearing people. It is also recommended to explore more advanced deep learning architectures, such as graph convolutional networks, transformer neural networks, or combinations of convolutional neural networks with long short-term memory, as these have shown good results in dynamic sign recognition.<hr/>RESUMO Este estudo explora o uso de redes neurais com memória de longo e curto prazo (LSTM) para o reconhecimento da Língua de Sinais Colombiana. Abrange tanto sinais estáticos (letras) quanto sinais dinâmicos (palavras). Os resultados mostram que o modelo atingiu uma precisão de 90% no reconhecimento de letras e 82% no reconhecimento de palavras, identificando em média 27 sinais distintos. Foram analisadas diferentes estratégias de extração de características espaço-temporais por meio do MediaPipe, observando-se que, para detectar sinais estáticos, bastam os pontos de controle das mãos, enquanto que para sinais dinâmicos são necessários os pontos de controle das mãos e da postura corporal. No entanto, os resultados não superaram a precisão de 90% alcançada em estudos internacionais, sugerindo que a qualidade e a quantidade do conjunto de dados utilizado podem ser aprimoradas. Como trabalho futuro, propõe-se avaliar o desempenho do modelo em tempo real, a fim de facilitar a comunicação entre pessoas surdas e ouvintes. Recomenda-se também explorar arquiteturas de aprendizado profundo mais avançadas, como redes convolucionais de grafos, redes neurais do tipo transformer ou combinações entre redes convolucionais e LSTM, que têm demonstrado bons resultados no reconhecimento de sinais dinâmicos. <![CDATA[REVISÃO SISTEMÁTICA DOS MÉTODOS PARA ESTIMAR O PREÇO DO CAFÉ ESPECIAL]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292025000118089&lng=pt&nrm=iso&tlng=pt ABSTRACT Despite being the initial and fundamental actor in specialty coffee's global production and marketing chain, coffee growers receive a disproportionately small share of the product's final value. This situation, aggravated by the adverse effects of climate change, market volatility, and increased production costs, exposes them to a precarious economic situation. There are many ways to help these producers, such as estimating production costs and selling prices, estimating climate, improving infrastructure, supporting the creation of cooperatives, and promoting fair trade. This review aims to identify several methods employed across different countries for estimating the price of specialty coffee. For this purpose, a systematic review methodology is conducted. This methodology involves identifying the need for the review, selecting and analyzing primary studies, and disseminating findings. Several studies employ mathematical models based on regression analysis, time series models, and artificial neural network-based models for coffee price estimation. In addition, it was identified that the most used evaluation metrics for the models mentioned above were R2, Akaike Information Criterion (AIC), and Average Mean Squared Error (MSE), respectively. Findings also reveal that these models often used data from online auctions, supermarkets, and the stock market, emphasizing the Cup of Excellence (CoE) auction contest. It was also identified that the main analyzed variables for the estimation were date or year, price of coffee, country of origin and destination, variety, ranking in the auction, and altitude. The study emphasizes the need for new methods and variables to estimate specialty coffee prices and their potential positive impact on the industry. These methods must adjust parameters flexibly as the models are prone to change over time.<hr/>RESUMEN A pesar de ser el actor inicial y fundamental en la cadena global de producción y comercialización del café de especialidad, los caficultores reciben una parte desproporcionadamente pequeña del valor final del producto. Esta situación, agravada por los efectos adversos del cambio climático, la volatilidad del mercado y el aumento de los costos de producción los expone a una situación económica precaria. Hay muchas maneras de ayudar a estos productores, como estimar los costos de producción y los precios de venta, estimar el clima, mejorar la infraestructura, apoyar la creación de cooperativas y promover el comercio justo. Esta revisión tiene como objetivo identificar varios métodos empleados en diferentes países para estimar el precio del café de especialidad. Para ello, se emplea una metodología de revisión sistemática. Esta implica identificar la necesidad de la revisión, seleccionar y analizar estudios primarios y difundir los hallazgos. Varios estudios emplean modelos matemáticos basados en análisis de regresión, modelos de series de tiempo y modelos basados en redes neuronales artificiales para la estimación del precio del café. Además, se identificó que las métricas de evaluación más utilizadas para los modelos mencionados anteriormente fueron R2, Akaike Information Criterion (AIC) y Average Mean Squared Error (MSE), respectivamente. Los hallazgos también revelan que estos modelos a menudo usaban datos de subastas en línea, supermercados y el mercado de valores, enfatizando el concurso de subastas Cup of Excellence (COE). También se identificó que las principales variables analizadas para la estimación fueron fecha o año, precio del café, país de origen y destino, variedad, ranking en la subasta y altitud. El estudio enfatiza la necesidad de nuevos métodos y variables para estimar los precios del café de especialidad y su posible impacto positivo en la industria. Estos métodos deben ajustar los parámetros de manera flexible, ya que los modelos son propensos a cambiar con el tiempo.<hr/>RESUMO Apesar de ser o ator inicial e fundamental na cadeia global de produção e comercialização do café especial, os cafeicultores recebem uma parte desproporcionalmente pequena do valor final do produto. Essa situação, agravada pelos efeitos adversos das mudanças climáticas, a volatilidade do mercado e o aumento dos custos de produção, expõe os produtores a uma situação econômica precária. Existem várias maneiras de ajudar esses produtores, como estimar os custos de produção e os preços de venda, estimar o clima, melhorar a infraestrutura, apoiar a criação de cooperativas e promover o comércio justo. Esta revisão tem como objetivo identificar diversos métodos empregados em diferentes países para estimar o preço do café especial. Para isso, é utilizada uma metodologia de revisão sistemática. Isso envolve identificar a necessidade da revisão, selecionar e analisar estudos primários e divulgar os resultados encontrados. Vários estudos utilizam modelos matemáticos baseados em análise de regressão, modelos de séries temporais e modelos baseados em redes neurais artificiais para estimar o preço do café. Além disso, identificou-se que as métricas de avaliação mais utilizadas para os modelos mencionados foram R2, Akaike Information Criterion (AIC) e o Erro Quadrático Médio Médio (MSE), respectivamente. Os resultados também revelaram que esses modelos frequentemente utilizavam dados de leilões online, supermercados e do mercado de ações, com ênfase no concurso de leilões Cup of Excellence (COE). Também foi identificado que as principais variáveis analisadas para a estimativa foram data ou ano, preço do café, país de origem e destino, variedade, classificação no leilão e altitude. O estudo enfatiza a necessidade de novos métodos e variáveis para estimar os preços do café especial e seu possível impacto positivo na indústria. Esses métodos devem ajustar os parâmetros de maneira flexível, pois os modelos tendem a mudar ao longo do tempo. <![CDATA[REVISÃO SISTEMÁTICA DOS ASPECTOS QUE INFLUENCIAM A GERAÇÃO DE APLICAÇÕES IMERSIVAS PARA O ENSINO UNIVERSITÁRIO: RUMO A UM MARCO DE REFERÊNCIA PARA A CONSTRUÇÃO DE FERRAMENTAS DE AUTORIA]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292025000118093&lng=pt&nrm=iso&tlng=pt ABSTRACT Immersive technologies, those that enable interaction between reality and a simulated environment, have gained relevance in higher education due to their ability to improve student motivation and learning. However, teachers face challenges when implementing them, for instance, the lack of adequate authoring tools and their growing importance in the educational context. These applications allow people without software development experience to create educational and multimedia digital content intuitively and to create content using immersive technologies. This work aimed to characterize technological, didactic, and pedagogical aspects to establish a reference framework that facilitates the development of authoring tools to create immersive content. Through a systematic review, key elements of design, architecture, technology, and functionality were identified, as well as relevant didactic and pedagogical aspects. Technological considerations such as the use of web technologies, content management, application distribution, editing interfaces, resource libraries, and content export options stand out among the findings. These results demonstrate the need and relevance of establishing a reference framework for the development of immersive applications. Consequently, a preliminary version that incorporates key design aspects and establishes solid foundations for future research and developments in the field of authoring tools with immersive technologies in higher education is proposed.<hr/>RESUMEN Las tecnologías inmersivas, aquellas que permiten una interacción entre la realidad y un entorno simulado, han ganado relevancia en la educación superior debido a su capacidad para mejorar la motivación y el aprendizaje de los estudiantes. Sin embargo, los docentes enfrentan desafíos al implementarlas, incluyendo la falta de herramientas de autor adecuadas y su creciente importancia en el contexto educativo. Estas aplicaciones permiten a personas sin experiencia en desarrollo de software crear contenido digital educativo y multimedia de forma intuitiva e incluso usando tecnologías inmersivas. Este trabajo se propuso caracterizar aspectos tecnológicos, didácticos y pedagógicos con el fin de establecer un marco de referencia que facilite el desarrollo de herramientas de autor para la creación de contenidos inmersivos. A través de una revisión sistemática, se identificaron elementos clave de diseño, arquitectura, tecnología y funcionalidad, así como aspectos didácticos y pedagógicos relevantes. Entre los hallazgos se destacan consideraciones tecnológicas como el uso de tecnologías web, la gestión de contenidos, la distribución de aplicaciones, las interfaces de edición, las bibliotecas de recursos y las opciones de exportación de contenidos. Estos resultados evidencian la necesidad y pertinencia de establecer un marco de referencia para el desarrollo de aplicaciones inmersivas. En consecuencia, se propone una versión preliminar de dicho marco que incorpora aspectos clave de diseño y establece fundamentos sólidos para futuras investigaciones y desarrollos en el campo de las herramientas de autor para tecnologías inmersivas en educación superior.<hr/>RESUMO As tecnologias imersivas, aquelas que permitem uma interação entre a realidade e um ambiente simulado, ganharam relevância no ensino superior devido à sua capacidade de melhorar a motivação e a aprendizagem dos estudantes. No entanto, os docentes enfrentam desafios em sua implementação, incluindo a falta de ferramentas de autoria adequadas e sua crescente importância no contexto educacional. Essas aplicações permitem que pessoas sem experiência em desenvolvimento de software criem conteúdos digitais educativos e multimídia de forma intuitiva, inclusive utilizando tecnologias imersivas. Este trabalho teve como objetivo caracterizar aspectos tecnológicos, didáticos e pedagógicos a fim de estabelecer um marco de referência que facilite o desenvolvimento de ferramentas de autoria para a criação de conteúdos imersivos. Por meio de uma revisão sistemática, foram identificados elementos-chave de design, arquitetura, tecnologia e funcionalidade, bem como aspectos didáticos e pedagógicos relevantes. Entre os achados, destacam-se considerações tecnológicas como o uso de tecnologias web, a gestão de conteúdos, a distribuição de aplicações, as interfaces de edição, as bibliotecas de recursos e as opções de exportação de conteúdos. Esses resultados evidenciam a necessidade e a relevância de se estabelecer um marco de referência para o desenvolvimento de aplicações imersivas. Em consequência, propõe-se uma versão preliminar desse marco, que incorpora aspectos-chave de design e estabelece bases sólidas para futuras pesquisas e desenvolvimentos no campo das ferramentas de autoria para tecnologias imersivas no ensino superior. <![CDATA[PROCESSOS GAUSSIANOS MULTI-SAÍDA APLICADOS AO MODELAMENTO E REDUÇÃO DE DIMENSIONALIDADE DOS DADOS TRANSMITIDOS EM UMA REDE SEM FIO DE SENSORES]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292025000118219&lng=pt&nrm=iso&tlng=pt ABSTRACT This work presents data modelling from Wireless Sensor Networks (WSN) applying Multiple Output Gaussian Processes (MOGP). The objective, in addition to describing the dynamics of sensed magnitudes (temperature, relative humidity, atmospheric pressure, and soil humidity), is to exploit the probabilistic learning nature of MOGPs and use the variance (uncertainty) provided by this method to reduce dimensionality in the network data, meaning the elimination of redundant data. It is compared with other machine learning models such as simple Gaussian Processes (GP), Support Vector Regressor (SVR), Neural Networks (NN), and Random Forest (RF), in terms of Root Mean Squared Error (RMSE) for modeling real data sensed by the WSN located at Universidad del Quindío. Results demonstrate that MOGPs are highly accurate supervised learning algorithms, flexible in modeling any physical magnitude, and capable of detecting redundant data, in some cases achieving a reduction greater than 50 %.<hr/>RESUMEN En este trabajo se presenta el modelamiento de datos provenientes de redes de sensores inalámbricos (WSN), aplicando procesos Gaussianos de múltiples salidas (MOGP). El objetivo, además de describir la dinámica de las magnitudes medidas (temperatura, humedad relativa, presión atmosférica y humedad de suelo), es aprovechar que los MOGP son máquinas de aprendizaje probabilísticas y usar la varianza (incertidumbre) que entrega este método para reducir la dimensionalidad en los datos de la red, es decir, eliminar datos redundantes. Se hace una comparación con otras máquinas de aprendizaje como procesos Gaussianos simples (GP), regresor basado en máquina de soporte vectorial (SVR), redes neuronales (NN), y Random Forest (RF), donde se evalúa el rendimiento en términos del RMSE, en el modelamiento de datos reales medidos por la WSN ubicada en la Universidad del Quindío. Los resultados prueban que los MOGP son algoritmos de aprendizaje supervisado de alta exactitud, flexibles para modelar cualquier magnitud física y, además, detectan datos redundantes, en algunos casos con reducción mayor al 50%.<hr/>RESUMO Este trabalho apresenta o modelamento de dados provenientes de redes de sensores sem fio (WSN), aplicando processos Gaussianos de múltiplas saídas (MOGP). O objetivo, além de descrever a dinâmica das grandezas medidas (temperatura, umidade relativa, pressão atmosférica e umidade do solo), é aproveitar que os MOGP são máquinas de aprendizado probabilísticas e usar a variância (incerteza) fornecida por esse método para reduzir a dimensionalidade dos dados da rede, ou seja, eliminar dados redundantes. Realiza-se uma comparação com outras máquinas de aprendizado, como processos Gaussianos simples (GP), regressão baseada em máquina de vetor de suporte (SVR), redes neurais (NN) e Random Forest (RF), onde o desempenho é avaliado em termos do RMSE, no modelamento de dados reais medidos pela WSN localizada na Universidade do Quindío. Os resultados comprovam que os MOGP são algoritmos de aprendizado supervisionado de alta precisão, flexíveis para modelar qualquer grandeza física e, além disso, detectam dados redundantes, em alguns casos com redução superior a 50%. <![CDATA[COMPENSAÇÃO DE POTÊNCIA REATIVA EM REDES DE DISTRIBUIÇÃO DE MÉDIA TENSÃO POR MEIO DE COMPENSADORES COMUTADOS BASEADOS EM TIRISTORES E O ALGORITMO DO BEIJA-FLOR ARTIFICIAL]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292025000118244&lng=pt&nrm=iso&tlng=pt ABSTRACT This research addresses the optimal reactive power compensation problem in medium-voltage distribution networks by integrating Thyristor-based Switched Capacitors (TSCs) and applying the Artificial Hummingbird Algorithm (AHA). Using TSCs in distribution networks aims at reducing the annualized grid operating costs associated with energy losses while considering the costs of investment in reactive power compensators. The AHA-a bio-inspired metaheuristic optimization approach-is used to determine the optimal set of nodes and sizes for the TSCs. To estimate the expected annualized costs of energy losses, a classical power flow approach based on successive approximations is implemented, structured within a master-slave framework with the AHA. Numerical results on 33- and 69-bus systems demonstrate the effectiveness of the proposed approach compared to three other metaheuristic methods: the sine-cosine algorithm, the Chu &amp; Beasley genetic algorithm, the particle swarm optimizer, and the black widow optimizer. All computational validations were performed using MATLAB software.<hr/>RESUMEN Esta investigación aborda el problema de la compensación óptima de potencia reactiva en redes de distribución de media tensión mediante la integración de compensadores conmutados basados en tiristores (TSCs) y la aplicación del algoritmo artificial de colibrí (AHA). El uso de TSCs en redes de distribución busca reducir los costos operativos anualizados de la red que se relacionan con las pérdidas de energía, a la vez que se consideran los costos de inversión en compensadores de potencia reactiva. El AHA, un enfoque bioinspirado de optimización metaheurística, se utiliza para determinar el conjunto óptimo de nodos y tamaños para los TSCs. Para estimar los costos anualizados que se proyectan para las pérdidas de energía, se implementa un enfoque clásico de flujo de potencia basado en aproximaciones sucesivas, estructurado en el marco de una configuración maestro-esclavo con el AHA. Los resultados numéricos obtenidos en sistemas de 33 y 69 nodos demuestran la efectividad del enfoque propuesto del AHA en comparación con otros tres métodos metaheurísticos: el algoritmo seno-coseno, el algoritmo genético de Chu &amp; Beasley, el optimizador de enjambre de partículas y el optimizador de viuda negra. Todas las validaciones computacionales se realizaron en el software MATLAB.<hr/>RESUMO Esta pesquisa aborda o problema da compensação ótima de potência reativa em redes de distribuição de média tensão por meio da integração de compensadores comutados baseados em tiristores (TSCs) e a aplicação do algoritmo do beija-flor artificial (AHA). O uso de TSCs em redes de distribuição busca reduzir os custos operacionais anualizados da rede, relacionados às perdas de energia, considerando ao mesmo tempo os custos de investimento em compensadores de potência reativa. O AHA, uma abordagem bioinspirada de otimização meta-heurística, é utilizado para determinar o conjunto ótimo de nós e tamanhos para os TSCs. Para estimar os custos anualizados projetados para as perdas de energia, é implementada uma abordagem clássica de fluxo de potência baseada em aproximações sucessivas, estruturada no contexto de uma configuração mestre-escravo com o AHA. Os resultados numéricos obtidos em sistemas de 33 e 69 nós demonstram a eficácia da abordagem proposta pelo AHA em comparação com outros três métodos meta-heurísticos: o algoritmo seno-cosseno, o algoritmo genético de Chu &amp; Beasley, o otimizador de enxame de partículas e o otimizador de viúva-negra. Todas as validações computacionais foram realizadas no software MATLAB. <![CDATA[MOBILIDADE INTELIGENTE: SISTEMA DE MONITORAMENTO DE INCIDENTES VIÁRIOS PARA A GESTÃO DO TRÁFEGO URBANO]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292025000119015&lng=pt&nrm=iso&tlng=pt ABSTRACT This article describes the process, tools, and technological platforms used to implement a computer system that collects, processes, transforms, stores, and analyzes real-time traffic incidents. This system, fed by data from the Waze application accessed through the Waze for Cities program, aims to support decision-making in urban traffic management. Its implementation uses a spiral methodology that generates evolutionary deliveries, progressing towards more complete versions. The architecture, components, and data flow are detailed, allowing to get interactive and summarized views of the information, including filters, analysis, summaries, statistics, and maps. An application case is presented in the city of Bogotá, where the Secretariat of Mobility uses the real-time traffic incident monitoring system and integrates it with other information systems to identify incidents, congestion, or roadblocks, anticipating problems and planning strategies focused on optimizing mobility in the city. The system can collect and process large amounts of information, perform advanced data analysis to identify mobility patterns, anticipate critical points, and predict contingencies such as accidents or blockages. This information facilitates a more agile and accurate response by transport authorities and strengthens evidence-based decision-making, contributing to more efficient, safer, and citizen-centered traffic management.<hr/>RESUMEN Este artículo describe el proceso, las herramientas y las plataformas tecnológicas empleadas para implementar un sistema informático que captura, procesa, transforma, almacena y analiza incidentes viales en tiempo real. Dicho sistema, alimentado por datos de la aplicación Waze, a los que se accede a través del programa Waze for Cities, busca apoyar la toma de decisiones en la gestión del tráfico urbano. Su implementación se efectúa usando una metodología en espiral que se caracteriza por generar entregas evolutivas, que van progresando hacia versiones más completas. Se detallan la arquitectura, los componentes y el flujo de datos, que permiten obtener como resultado vistas interactivas y resumidas de la información, incluyendo filtros, análisis, resúmenes, estadísticas y mapas. Se presenta un caso de aplicación en la ciudad de Bogotá, donde la Secretaría de Movilidad utiliza el sistema de monitoreo de incidentes viales en tiempo real y lo integra con otros sistemas de información con el objetivo de identificar incidentes, congestiones o bloqueos viales, anticipar problemas y planificar estrategias enfocadas a la optimización de la movilidad en la ciudad. El sistema tiene la capacidad de recolectar y procesar grandes volúmenes de información, para realizar análisis de datos avanzados que permitan identificar patrones de movilidad, prever puntos críticos y anticiparse a eventualidades como accidentes o bloqueos. Esta información facilita una respuesta más ágil y precisa por parte de las autoridades de transporte y fortalece la toma de decisiones basadas en evidencia, lo que contribuye a una gestión del tráfico más eficiente, segura y orientada a las necesidades de los ciudadanos.<hr/>RESUMO Este artigo descreve o processo, as ferramentas e as plataformas tecnológicas utilizadas para implementar um sistema computacional que captura, processa, transforma, armazena e analisa incidentes de trânsito em tempo real. Esse sistema, alimentado por dados do aplicativo Waze, acessados por meio do programa Waze for Cities, visa apoiar a tomada de decisões na gestão do tráfego urbano. Sua implementação segue uma metodologia em espiral, caracterizada por entregas evolutivas que avançam para versões mais completas. São detalhados a arquitetura, os componentes e o fluxo de dados, permitindo obter visualizações interativas e resumidas da informação, incluindo filtros, análises, resumos, estatísticas e mapas. É apresentado um caso de aplicação na cidade de Bogotá, onde a Secretaria de Mobilidade utiliza o sistema de monitoramento de incidentes viários em tempo real e o integra com outros sistemas de informação para identificar incidentes, congestionamentos ou bloqueios nas vias, antecipar problemas e planejar estratégias focadas na otimização da mobilidade urbana. O sistema é capaz de coletar e processar grandes volumes de dados, realizar análises avançadas para identificar padrões de mobilidade, prever pontos críticos e antecipar contingências como acidentes ou bloqueios. Essas informações facilitam uma resposta mais ágil e precisa por parte das autoridades de transporte e fortalecem a tomada de decisões baseadas em evidências, contribuindo para uma gestão do tráfego mais eficiente, segura e centrada no cidadão. <![CDATA[TENSÃO ENTRE A ÉTICA ALGORÍTMICA E A ÉTICA HUMANA: ENCONTRAR UM EQUILÍBRIO RESPONSÁVEL]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292025000119650&lng=pt&nrm=iso&tlng=pt ABSTRACT The increasing implementation of algorithmic systems in various areas of society has created a noticeable tension between algorithmic ethics and human ethics. This research examines this tension and proposes strategies to achieve a responsible balance between both ethical perspectives. The study focuses on three fundamental questions: What are the main points of conflict between algorithmic ethics and human ethics in automated decision-making processes? What approaches could harmonize these two ethical perspectives? How can human ethical principles be effectively incorporated into the design and operation of algorithmic systems? The main findings reveal that conflicts arise primarily in areas such as transparency, accountability, biases and discrimination, and the preservation of human autonomy. The research identifies key strategies to address these challenges, including the implementation of "ethics by design" frameworks, the development of ethical auditing processes, the promotion of diversity in development teams, and the advancement of digital ethics education. It is concluded that the effective integration of algorithmic ethics and human ethics requires a holistic approach that combines technical advancements, ethical reflection, ongoing education, and adaptive regulation. Only through this multifaceted effort can a technological ecosystem be created that enhances human capabilities and promotes a fairer and ethically conscious society in the digital age.<hr/>RESUMEN La creciente implementación de sistemas algorítmicos en diversos ámbitos de la sociedad ha generado una tensión notable entre la ética algorítmica y la ética humana. Esta investigación examina dicha tensión y propone estrategias para lograr un equilibrio responsable entre ambas perspectivas éticas. El estudio se centra en tres preguntas fundamentales: ¿Cuáles son los principales puntos de conflicto entre la ética algorítmica y la ética humana en los procesos de decisión automatizados? ¿Qué enfoques podrían armonizar estas dos perspectivas éticas? ¿Cómo se pueden incorporar efectivamente los principios éticos humanos en el diseño y funcionamiento de los sistemas algorítmicos? Los hallazgos principales revelan que los conflictos surgen principalmente en áreas como la transparencia, la responsabilidad, los sesgos y la discriminación, y la preservación de la autonomía humana. La investigación identifica estrategias clave para abordar estos desafíos, incluyendo la implementación de marcos de "ética por diseño", el desarrollo de procesos de auditoría ética, el fomento de la diversidad en equipos de desarrollo, y la promoción de la educación en ética digital. Se concluye que la integración efectiva de la ética algorítmica y la ética humana requiere un enfoque holístico que combine avances técnicos, reflexión ética, educación continua y regulación adaptativa. Solo a través de este esfuerzo multifacético se podrá crear un ecosistema tecnológico que potencie las capacidades humanas y promueva una sociedad más justa y éticamente consciente en la era digital.<hr/>RESUMO A crescente implementação de sistemas algorítmicos em diversos campos da sociedade tem gerado uma tensão notável entre a ética algorítmica e a ética humana. Esta pesquisa examina essa tensão e propõe estratégias para alcançar um equilíbrio responsável entre ambas as perspectivas éticas. O estudo se concentra em três questões fundamentais: Quais são os principais pontos de conflito entre a ética algorítmica e a ética humana nos processos de decisão automatizados? Quais abordagens poderiam harmonizar essas duas perspectivas éticas? Como os princípios éticos humanos podem ser efetivamente incorporados no design e funcionamento dos sistemas algorítmicos? Os principais resultados revelam que os conflitos surgem principalmente em áreas como transparência, responsabilidade, vieses e discriminação, e preservação da autonomia humana. A pesquisa identifica estratégias chave para lidar com esses desafios, incluindo a implementação de marcos de "ética por design", o desenvolvimento de processos de auditoria ética, o incentivo à diversidade nas equipes de desenvolvimento e a promoção da educação em ética digital. Conclui-se que a integração eficaz da ética algorítmica e da ética humana exige uma abordagem holística que combine avanços técnicos, reflexão ética, educação contínua e regulamentação adaptativa. Somente por meio desse esforço multifacetado será possível criar um ecossistema tecnológico que potencialize as capacidades humanas e promova uma sociedade mais justa e eticamente consciente na era digital.