Scielo RSS <![CDATA[Revista Facultad de Ingeniería]]> http://www.scielo.org.co/rss.php?pid=0121-112920230001&lang=pt vol. 32 num. 63 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Modelo de representação de imagem digital enriquecido com tecnologias da web semântica: informação visual e não visual]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100001&lng=pt&nrm=iso&tlng=pt Abstract The types of content of digital images, visual (syntactic and semantic) and non-visual, cause the complexity of their representation. Considering these contents separately hinders digital image retrieval because this creates a gap between the contents of the image and its representation. Therefore, this work aims to present a representation model of visual and non-visual information of digital images, with semantic enrichment through the Semantic Web technologies. For that, a qualitative methodology with a bibliographical approach was used. Theoretical subsidies of the topics addressed were sought, and it has an applied focus since it proposes a model and its exemplification. The developed model depicts the representation image process and allows the semantic enrichment of the data. This enrichment facilitates the retrieval in multiple contexts with technologies that favor the use of the data through inferences. Also, a use case with digital medical images is presented, demonstrating the feasibility of the proposal. It is concluded that the representation of visual and non-visual content aims to improve the way images are retrieved in digital information environments. The junction of the content and the context of images should be considered, even though search mechanisms usually treat this separately due to the disaggregation of image representation itself.<hr/>Resumen La complejidad de la representación de las imágenes digitales está dada por los tipos de contenido -visual (sintáctico y semántico) y no visual- que estas poseen. El considerar estos contenidos separadamente dificulta la recuperación de imágenes digitales porque crea una brecha entre los contenidos de la imagen y su representación. Por lo tanto, este trabajo tiene como objetivo presentar un modelo de representación de información visual y no visual de imágenes digitales, con enriquecimiento semántico mediante el uso de las tecnologías de la Web Semántica. Para ello fue utilizada una metodología cualitativa con enfoque bibliográfico y realizado un caso de aplicación. Se buscaron subsidios teóricos de los temas abordados, además consta de un enfoque aplicado ya que se propuso un modelo y su ejemplificación. El modelo propuesto describe el proceso de representación de la imagen y permite el enriquecimiento semántico de los datos. Este enriquecimiento facilita la recuperación en múltiples contextos con tecnologías que favorecen el uso de los datos por medio de inferencias. Asimismo, se presenta un caso de aplicación con imágenes médicas digitales, en el que se demuestra la factibilidad de la propuesta. Se concluye que la representación de contenidos visuales y no visuales tiene como objetivo mejorar la forma en que se recuperan las imágenes en ambientes de información digital. La fusión del contenido y el contexto de las imágenes debe ser considerada, aunque los mecanismos de búsqueda suelen tratarlos por separado debido a la desagregación de la representación de la imagen en sí.<hr/>Resumo A complexidade da representação das imagens digitais é dada pelos tipos de conteúdo -visuais (sintáticos e semânticos) e não visuais- que possuem. Considerar esses conteúdos separadamente dificulta a recuperação da imagem digital, pois cria uma lacuna entre o conteúdo da imagem e sua representação. Portanto, este trabalho tem como objetivo apresentar um modelo de representação de informações visuais e não visuais de imagens digitais, com enriquecimento semântico por meio do uso de tecnologias da Web Semântica. Para isso, foi utilizada uma metodologia qualitativa com abordagem bibliográfica e realizado um caso de aplicação. Buscou-se subsídios teóricos dos temas abordados, além disso consiste em uma abordagem aplicada uma vez que foi proposto um modelo e sua exemplificação. O modelo proposto descreve o processo de representação de imagens e permite o enriquecimento semântico dos dados. Esse enriquecimento facilita a recuperação em múltiplos contextos com tecnologias que favorecem o uso de dados por meio de inferências. Da mesma forma, é apresentado um caso de aplicação com imagens médicas digitais, no qual é demonstrada a viabilidade da proposta. Conclui-se que a representação de conteúdos visuais e não visuais visa melhorar a forma como as imagens são recuperadas em ambientes de informação digital. A fusão de conteúdo e contexto da imagem deve ser considerada, embora os mecanismos de busca muitas vezes os tratem separadamente devido à desagregação da própria representação da imagem. <![CDATA[OntoCaimer: Criando um modelo ontológico para apoiar o cuidado de pacientes com doença de Alzheimer]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100002&lng=pt&nrm=iso&tlng=pt Abstract The World Health Organization declared Alzheimer's disease and its care a global public health priority in 2021 due to its complexity and development, which affects the patient and their caregiver. Alzheimer's symptoms worsen daily, so the patient must have 24/7 care; between responsibilities, the caregiver must deal with arduous tasks, from bathing the patient to managing the behavioral symptoms. By carrying out a systematic mapping, it was possible to identify that, despite the profuse information about Alzheimer's and its care, there is no concise source of information that allows the development of integrated systems that support the care of patients with Alzheimer's. This paper is presented OntoCaimer, which is an ontology that synthesizes the recommendations and preventive actions for most of the symptoms of the different stages of Alzheimer's. OntoCaimer integrates concepts related to sensors, actuators, and measurement, making it possible to use it as a basis for the development of systems that support patient care digitally through alerts or with the use of actuators to support patient care. OntoCaimer allows automating a group of variables associated with recommendations or preventive actions such as weight, environment, and feeding schedules, among others, which would support patient care, reduce caregiver tasks, and serve as a knowledge base for the scientific community and the development of systems that implement electronic systems or simulations before their implementation.<hr/>Resumen La Organización Mundial de la Salud declaró en el 2021 al Alzheimer y su cuidado como prioridad de salud pública a nivel mundial debido a su complejidad y desarrollo, que afecta al paciente y su cuidador. Los síntomas del Alzheimer empeoran día a día, por lo que el paciente debe tener un cuidado 24/7; entre las responsabilidades, el cuidador debe lidiar con arduas tareas, desde bañar al paciente hasta manejar sus síntomas comportamentales. A pesar de la profusa información acerca del Alzheimer y su cuidado, no se cuenta con una fuente concisa de información que permita desarrollar sistemas integrados que soporten el cuidado de pacientes con Alzheimer. En este artículo se presenta OntoCaimer, una ontología que sintetiza las recomendaciones y acciones preventivas para la gran mayoría de los síntomas de las diferentes etapas del Alzheimer, asimismo, OntoCaimer integra conceptos relacionados con sensores, actuadores y medición, haciendo posible su uso como base para el desarrollo de sistemas que apoyen el cuidado de los pacientes, de manera digital -a través de alertas-, o con el uso de actuadores, todo con el fin de dar soporte al cuidado de los pacientes. OntoCaimer permite automatizar un grupo de variables asociadas a las recomendaciones o acciones preventivas como el: peso, ambiente, horarios de alimentación, entre otros, lo que permitiría apoyar el cuidado del paciente, disminuir las tareas del cuidador y servir como base de conocimiento para la comunidad científica y el desarrollo de sistemas que implementen sistemas electrónicos o simulaciones antes de su implementación.<hr/>Resumo A Organização Mundial da Saúde declarou a doença de Alzheimer e seus cuidados como uma prioridade global de saúde pública em 2021 devido à sua complexidade e desenvolvimento, que afeta o paciente e seu cuidador. Os sintomas de Alzheimer pioram a cada dia, por isso o paciente deve ter atendimento 24 horas por dia; Dentre as responsabilidades, o cuidador deve lidar com tarefas árduas, desde o banho do paciente até o manejo de seus sintomas comportamentais. Apesar da profusão de informações sobre a doença de Alzheimer e seus cuidados, não existe uma fonte de informação concisa que permita o desenvolvimento de sistemas integrados que apoiem o cuidado dos pacientes com Alzheimer. Este artigo apresenta OntoCaimer, uma ontologia que sintetiza as recomendações e ações preventivas para a grande maioria dos sintomas das diferentes fases da doença de Alzheimer, da mesma forma, OntoCaimer integra conceitos relacionados a sensores, atuadores e medição, o que permite que sejam usados ​​como base . para o desenvolvimento de sistemas que apoiem o atendimento ao paciente, digitalmente -através de alertas-, ou com o uso de atuadores, tudo com o objetivo de apoiar o atendimento ao paciente. O OntoCaimer permite automatizar um conjunto de variáveis ​​associadas a recomendações ou ações preventivas como: peso, ambiente, horários de alimentação, entre outras, que dariam suporte ao cuidado do paciente, reduziriam as tarefas do cuidador e serviriam como base de conhecimento. para a comunidade científica e o desenvolvimento de sistemas que implementam sistemas eletrônicos ou simulações antes de sua implementação. <![CDATA[Mapeamento sistemático de literatura sobre mau cheiro em requisitos de desenvolvimento de software]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100003&lng=pt&nrm=iso&tlng=pt Abstract One of the activities responsible for the success of a software development project is the specification of requirements, whose purpose is to ensure that the wishes or needs of the client clearly and accurately represent what they expect. A clear and structured requirement specification process avoids reprocessing at later stages of the project life cycle, generating a benefit in terms of time estimation for new tasks, cost, and effort. In this sense, it is important to have mechanisms or techniques to identify and mitigate possible errors during the requirements specification. Software engineering proposes the term “smell”, which can be defined as a specific symptom that can generate defects in a requirement. The objective of this paper is to establish a broader state of knowledge on the smell identification and classification present during the requirements specification and their impact on the generation of a phenomenon known as requirements debt. This article presents the results obtained after carrying out a systematic mapping of the literature, describing the proposals, initiatives, results, technological tools, benefits and challenges of smell identification and management in the requirements-gathering stage during the software development solutions.<hr/>Resumen Una de las actividades responsables del éxito en los proyectos de desarrollo de software es la especificación de requisitos, cuyo propósito es asegurar que los deseos o necesidades del cliente representan de forma precisa lo que ellos esperan. Un proceso claro y estructurado durante la especificación de requisitos permite evitar reprocesos en etapas posteriores del ciclo de vida del proyecto, generando un beneficio en términos de estimación de tiempos para nuevas tareas, costo y esfuerzo. En este sentido, es importante contar con mecanismos o técnicas que permitan identificar y mitigar posibles errores durante la especificación de requisitos. En particular, la ingeniería de software propone el término “olor”, que se puede definir como un síntoma concreto que puede generar defectos en un requisito. Con el objetivo de establecer un estado del conocimiento más amplio en torno a la identificación, clasificación de olores presentes durante la especificación de requisitos y su impacto en la generación de un fenómeno conocido como deuda de requisitos, este artículo presenta los resultados obtenidos después de realizar un mapeo sistemático de la literatura, en el cual se describen las propuestas, iniciativas, resultados, herramientas tecnológicas, beneficios y desafíos en torno a la identificación y gestión de olores en la etapa de levantamiento de requisitos durante el desarrollo de soluciones software.<hr/>Resumo Uma das atividades responsáveis ​​pelo sucesso dos projetos de desenvolvimento de software é a especificação de requisitos, cujo objetivo é garantir que os desejos ou necessidades do cliente representem exatamente o que ele espera. Um processo claro e estruturado durante a especificação de requisitos permite evitar retrabalho em fases posteriores do ciclo de vida do projeto, gerando um benefício em termos de estimativa de tempo para novas tarefas, custo e esforço. Nesse sentido, é importante dispor de mecanismos ou técnicas que permitam identificar e mitigar possíveis erros durante a especificação de requisitos. Em particular, a engenharia de software propõe o termo “cheiro”, que pode ser definido como um sintoma específico que pode gerar defeitos em um requisito. Com o objetivo de estabelecer um estado mais amplo de conhecimento sobre a identificação e classificação de odores presentes durante a especificação de requisitos e seu impacto na geração de um fenômeno conhecido como dívida de requisitos, este artigo apresenta os resultados obtidos após a realização de um mapeamento sistemático do literatura, que descreve as propostas, iniciativas, resultados, ferramentas tecnológicas, benefícios e desafios em torno da identificação e gestão de odores na etapa de levantamento de requisitos durante o desenvolvimento de soluções de software. <![CDATA[Metodologia para elaboração de análise de patentes e ciclo de maturidade tecnológica]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100004&lng=pt&nrm=iso&tlng=pt Abstract The analysis of patents and the behavior of technology over time have aroused great interest at institutions and companies because they serve as a guide to make decisions on research and innovation projects. Based on this, a methodology that seeks to guide the reader in the preparation of this type of study; both the body of the document and its interpretation has been developed. Two software were used to describe the extraction of patent data; Orbit Intelligence (Licensed Software) and Lens (Open access version). The information obtained, using the same search equation, was presented. For the analysis of the technological maturity cycle, the logistic model was obtained, and it was executed in the Loglet Lab 4 software to obtain the growth curve S. Finally, the Yoon parameters were presented to give a predictive concept of the behavior of the technology over time. The case study that was taken as an example was the technology of “Antibacterial and self-cleaning surfaces based on TiO2/ZnO”, which applied this methodology, we found that the technology of interest is in the maturity phase. It has a high impact on the market, being an important indicator for decision-making focused on research and development. According to what has been proposed, the exposed methodology is a tool to have in consideration that allows to present a more accurate concept about the future projections of a technology, based on the analysis of patent data. Moreover, it is important to consider the trends of the market and the socio-political situation.<hr/>Resumen El análisis de patentes y el comportamiento de la tecnología en el tiempo han despertado un gran interés en las instituciones y compañías debido a que sirve como una guía en la toma de decisiones sobre proyectos de investigación e innovación. Basados en lo anterior, una metodología que busca guiar al lector en la elaboración de este tipo de estudios, tanto el cuerpo del documento como su interpretación. Se utilizaron dos softwares para describir la extracción de datos de patentes Orbit Intelligence (Software licenciado) y Lens (Versión de acceso libre) y se presentó la información obtenida a partir del uso de la ecuación de búsqueda. Para el análisis del ciclo de madurez tecnológica se utilizó el modelo logístico y se ejecutó en el algoritmo Loglet Lab 4 para obtener la curva de crecimiento S. Finalmente, se proponen los parámetros de Yoon para dar un concepto predictivo del comportamiento de la tecnología en el tiempo. El caso de estudio que se tomó como ejemplo fue la tecnología de “Superficies antibacteriales y autolimpiantes a base TiO2/ZnO”. Al aplicar esta metodología, se encontró que la fase de madurez en la que se encuentra la tecnología de interés sugiere un alto impacto en el mercado. Este indicador importante para la toma de decisiones enfocadas a la investigación y desarrollo. De acuerdo con lo planteado, la metodología expuesta es una herramienta que permite presentar un concepto más acertado sobre las proyecciones futuras de una tecnología, basadas en el análisis de datos de patentes. No obstante, es importante tener en cuenta las tendencias del mercado y la situación sociopolítica.<hr/>Resumo A análise de patentes e o comportamento da tecnologia ao longo do tempo têm despertado grande interesse em instituições e empresas por servirem de guia na tomada de decisões em projetos de pesquisa e inovação. Com base no exposto, uma metodologia que busca orientar o leitor na elaboração desse tipo de estudo, tanto no corpo do documento quanto em sua interpretação. Dois softwares foram usados ​​para descrever a extração de dados de patentes Orbit Intelligence (Software Licenciado) e Lens (Versão Open Access) e as informações obtidas com o uso da equação de busca foram apresentadas. Para a análise do ciclo de maturidade tecnológica, foi utilizado o modelo logístico e executado no algoritmo Loglet Lab 4 para obtenção da curva de crescimento S. Finalmente, os parâmetros de Yoon são propostos para dar um conceito preditivo do comportamento da tecnologia em o tempo. O estudo de caso tomado como exemplo foi a tecnologia de “superfícies antibacterianas e autolimpantes à base de TiO2/ZnO”. Aplicando essa metodologia, constatou-se que a fase de maturidade da tecnologia de interesse sugere alto impacto no mercado. Este importante indicador para a tomada de decisões com foco em pesquisa e desenvolvimento. Conforme exposto, a metodologia exposta é uma ferramenta que permite apresentar um conceito mais preciso sobre as projeções futuras de uma tecnologia, a partir da análise de dados de patentes. No entanto, é importante levar em consideração as tendências do mercado e a situação sócio-política. <![CDATA[IoT-LAT: Protótipo de gêmeo digital para a simulação de cenários educacionais dos laboratórios de arte e tecnologia do Instituto Departamental de Belas Artes - Cali]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100005&lng=pt&nrm=iso&tlng=pt Abstract Digital Twins (DTs) have the potential to revolutionize the manufacturing, construction, maintenance, and control of industrial processes due to their ability to bridge the physical and digital realms. However, creating complex digital concepts requires carefully implementing appropriate methodologies and processes. This study presents a prototype digital twin of the art and technology laboratories at the Departmental Institute of Fine Arts in Cali, Colombia. We employ the Scrum agile development methodology to streamline the design and development process of the IoT-ATL prototype. A three-layer IoT architecture is established; it facilitates mapping the components of the digital twin and the physical elements to be simulated. The IoT-ATL prototype allows students and teachers to interact and learn about the physical state of the laboratory in a digital environment, thus increasing visibility of the availability and use of technological elements in the space.<hr/>Resumen Los Gemelos Digitales (DT) tienen el potencial de transformar procesos de manufactura, construcción, mantenimiento y control de diferentes procesos industriales debido a que permiten la integración entre el mundo físico y el mundo digital. Sin embargo, el diseño y desarrollo de conceptos digitales complejos requiere que sus metodologías y procesos se implementen correctamente. En este trabajo se presenta el desarrollo de un prototipo de gemelo digital de los laboratorios de arte y tecnología del Instituto Departamental de Bellas Artes, Cali, utilizando el proceso de desarrollo ágil Scrum, el cual facilitó la organización en el diseño y desarrollo del prototipo IoT-LAT. Para la construcción se estableció una arquitectura IOT de 3 capas que permitió mapear los componentes del gemelo digital y los elementos reales a simular para su construcción. El prototipo IoT-LAT permite a estudiantes y docentes interactuar e informarse digitalmente del estado físico del laboratorio, conocer cuáles elementos tecnológicos se encuentran disponibles en el espacio y cómo se usan.<hr/>Resumo Os Gêmeos Digitais (DT) têm o potencial de transformar os processos de fabricação, construção, manutenção e controle de diferentes processos industriais devido à sua oportunidade de integração entre o mundo físico e o mundo digital. No entanto, a concepção e desenvolvimento de conceitos digitais complexos exige que suas metodologias e processos sejam implementados corretamente. Este artigo apresenta o desenvolvimento de um protótipo de gêmeo digital dos laboratórios de arte e tecnologia do Instituto Departamental de Belas Artes - Cali usando o processo de desenvolvimento ágil SCRUM. A utilização do SCRUM facilitou a organização na concepção e desenvolvimento do protótipo IoT-LAT. Para a construção foi estabelecida uma arquitetura IOT de 3 camadas que permitiu mapear os componentes do gêmeo digital e os elementos reais a serem simulados para sua construção. O protótipo IoT-LAT permite que alunos e professores interajam e conheçam digitalmente o estado físico do laboratório, saibam quais os elementos tecnológicos disponíveis no espaço, e como são utilizados. <![CDATA[Métodos de Inicialização e Pesquisa Local Aplicados ao Problema de Cobertura de Conjuntos: Um Mapeamento Sistemático]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100006&lng=pt&nrm=iso&tlng=pt Abstract The set covering problem (SCP) is a classical combinatorial optimization problem part of Karp's 21 NP-complete problems. Many real-world applications can be modeled as set covering problems (SCPs), such as locating emergency services, military planning, and decision-making in a COVID-19 pandemic context. Among the approaches that this type of problem has solved are heuristic (H) and metaheuristic (MH) algorithms, which integrate iterative methods and procedures to explore and exploit the search space intelligently. In the present research, we carry out a systematic mapping of the literature focused on the initialization and local search methods used in these algorithms that have been applied to the SCP in order to identify them and that they can be applied in other algorithms. This mapping was carried out in three main stages: research planning, implementation, and documentation of results. The results indicate that the most used initialization method is random with heuristic search, and the inclusion of local search methods in MH algorithms improves the results obtained in comparison to those without local search. Moreover, initialization and local search methods can be used to modify other algorithms and evaluate the impact they generate on the results obtained.<hr/>Resumen El problema de cobertura de conjuntos (PCC) es un problema de optimización combinatorio clásico que hace parte de los 21 problemas NP-completos de Karp. Muchas aplicaciones del mundo real pueden modelarse como PCC, como la ubicación servicios de emergencia, la planificación militar, la toma de decisiones en el contexto de la pandemia por COVID-19, entre otros. Entre los enfoques que han resuelto este tipo de problema se encuentran los algoritmos heurísticos (H) y metaheurísticos (MH), que integran métodos y procedimientos iterativos para explorar y explotar el espacio de búsqueda de forma inteligente. En la presente investigación realizamos un mapeo sistemático de la literatura enfocado en los métodos de inicialización y búsqueda local utilizados en estos algoritmos que se han aplicado al PCC con el fin de identificarlos y que puedan ser aplicados en otros algoritmos. Este mapeo se realizó en tres etapas principales: planificación de la investigación, ejecución y documentación de resultados. Se encontró que el método de inicialización más utilizado es el aleatorio con búsqueda heurística y que la inclusión de métodos de búsqueda local en los algoritmos MH mejoran los resultados obtenidos en comparación con estos sin búsqueda local. Por otra parte, se identificaron métodos de inicialización y búsqueda local que pueden ser utilizados para modificar otros algoritmos y evaluar el impacto que generan en los resultados obtenidos.<hr/>Resumo O problema de cobertura de conjuntos (PCC) é um problema de otimização de combinação clássica que faz parte dos 21 problemas de Karp completados por NP. Muitas aplicações do mundo real podem ser modeladas como PCC, como serviços de emergência, planejamento militar, tomada de decisão pandêmica pelo Covid-19, entre outros. Entre as abordagens que têm resolvido esse tipo de problema estão os algoritmos heurísticos (H) e metaheurísticos (MH), que integram métodos e procedimentos iterativos para intensificar ou diversificar a pesquisa de forma inteligente. Na presente investigação, realizamos um mapeamento sistemático da literatura focada na inicialização e nos métodos de pesquisa local usados nesses algoritmos que foram aplicados ao PCC para identificá-los e que podem ser aplicados em outros algoritmos. Esse mapeamento foi realizado em três etapas principais: planejamento de pesquisa, execução e documentação dos resultados; Descobrir que o método de inicialização mais usado é aleatório com a pesquisa heurística e que a inclusão de métodos de pesquisa local nos algoritmos MH melhora os resultados obtidos em comparação com eles sem a pesquisa local. Por outro lado, foram identificados métodos de localização e pesquisa local que podem ser usados para modificar outros algoritmos e avaliar o impacto que eles geram nos resultados obtidos. <![CDATA[Geração automática de resumos extrativos para um único documento: Um Mapeamento Sistemático]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100007&lng=pt&nrm=iso&tlng=pt Abstract Automatic Extractive Single Document Summarization (AESDS) is a research area that aims to create a condensed version of a document with the most relevant information; it acquires more importance daily due to the need of users to obtain information on documents published on the Internet quickly. In automatic document summarization, each element must be evaluated and ranked to generate a summary. As such, there are three approaches considering the number of objectives they evaluate: single-objective, multi-objective, and many-objective. This systematic mapping aims to provide knowledge about the methods and techniques used in extractive techniques for AESDS, analyzing the number of objectives and characteristics evaluated, which can be helpful for future research. This mapping was carried out using a generic process for the realization of systematic reviews where a search string was built considering some research questions. A filter was then used with inclusion and exclusion criteria for selecting primary studies with which it will carry out the analysis. Additionally, these studies are sorted according to the relevance of their content. This process is summarized in three main steps: planning, execution, and result analysis. At the end of the mapping, the following observations were identified: (i) There is a preference for the use of machine learning methods and the use of clustering techniques, (ii) the importance of using both types of characteristics (statistics and semantics), and (iii) the need to explore the many-objective approach.<hr/>Resumen La Generación Automática de Resúmenes Extractivos para un Solo Documento (GAReUD) es un área de investigación que tiene como objetivo crear una versión corta de un documento con la información más relevante y adquiere mayor importancia a diario debido a la necesidad de los usuarios de obtener rápidamente información de documentos publicados en internet. En el área de generación automática de resúmenes cada elemento debe ser evaluado y luego rankeado para conformar un resumen, de acuerdo con esto, existen tres diferentes enfoques teniendo en cuenta la cantidad de objetivos que se evalúan, así: mono objetivo, multi objetivo y de muchos objetivos. El propósito de este mapeo sistemático es brindar conocimiento sobre los métodos y técnicas utilizadas en métodos extractivos de GAReUD, analizando la cantidad de objetivos y características evaluadas, que pueden ser útiles para futuras investigaciones. Este mapeo se realizó utilizando un proceso genérico para la realización de revisiones sistemáticas donde se construye una cadena de búsqueda considerando unas preguntas de investigación, luego se utiliza un filtro con unos criterios de inclusión y exclusión para la selección de los estudios primarios con los que se realizará el análisis, adicionalmente, estos estudios se ordenan de acuerdo con la relevancia de su contenido; este proceso se resume en tres pasos principales: Planificación, Ejecución y Análisis de resultados. Al final del mapeo se identificaron las siguientes observaciones: (i) existe una preferencia por la utilización de métodos basados en aprendizaje automático de máquina y también por el uso de técnicas de agrupamiento, (ii) la importancia de usar como objetivos ambos tipos de características (estadísticas y semánticas) y (iii) la necesidad de explorar el enfoque de muchos objetivos.<hr/>Resumo A geração automática de resumos extrativos para um único documento (GAReUD) é uma área de pesquisa que visa criar uma versão curta de um documento com as informações mais relevantes e ganha cada vez mais importância devido à necessidade de os usuários obterem informações rapidamente a partir de documentos publicados na internet. Na área da geração automática de resumos cada elemento deve ser avaliado e depois classificado para formar um resumo, de acordo com isso existem três abordagens diferentes tendo em conta o número de objetivos que se avaliam, sendo assim: objetivo único, objetivo múltiplo e objetivos múltiplos. A finalidade deste mapeamento sistemático é fornecer conhecimento sobre os métodos e técnicas utilizadas nos métodos extrativos GAReUD, analisando o número de objetivos e características avaliadas, o que pode ser útil para pesquisas futuras. Este mapeamento foi realizado através de um processo genérico para a realização de revisões sistemáticas onde uma cadeia de busca é construída considerando algumas questões de pesquisa, então um filtro com critérios de inclusão e exclusão é utilizado para a seleção dos estudos primários com os quais se baseia. fora da análise, adicionalmente, esses estudos são ordenados de acordo com a relevância de seu conteúdo; esse processo se resume em três etapas principais: Planejamento, Execução e Análise de resultados. Ao final do mapeamento, foram identificadas as seguintes observações: (i) há uma preferência pelo uso de métodos baseados em aprendizado de máquina e pelo uso de técnicas de clustering, (ii) a importância do uso de ambos os tipos de características (estatísticas e semântica) e (iii) a necessidade de explorar a abordagem de muitos objetivos. <![CDATA[Estabilidade da cunha de rocha usando um método de simulação de nível III]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-11292023000100008&lng=pt&nrm=iso&tlng=pt Abstract In fractured rock masses, discontinuities control the mechanical response of rock slopes. They even define the geometry of a potential failure, known a kinematically controlled failure. Hence, a proper characterization and description are needed to assess their stability. Accordingly, in this work, a reliability assessment of rock wedges' stability was performed by a Monte Carlo simulation. The orientation of discontinuities was modeled as a random variable that follows the rotationally symmetric Fisher distribution. We developed an algorithm to define the modes of failure based on the orientation of planes, which was articulated within a methodology to compute the factor of safety of rock wedges explicitly. The algorithm systematically defines a set-up of joint planes. Then it verifies the relative location of the slope orientation on that set-up, which is related to the mode of failure of the rock wedge. The proposed algorithm was validated by comparison against commercial software; both yielded the same results. Besides, the probability of failure and the factor of safety probability function of removable wedges were computed for different concentration parameters. Reliability assessment showed the importance of properly characterizing the variability of joint orientation since the concentration highly influences the computed probability of failure. In addition, a proper definition of removable wedges by kinematic analysis is required before computing the factor of safety because many combinations of planes do not lead to unstable wedges, which reduces the probability of failure. Otherwise, it is overestimated. Finally, we recommend further work on rock wedge reliability assessment involving rotational nonsymmetric distribution.<hr/>Resumen En los macizos rocosos, la presencia de discontinuidades controla la resistencia de los taludes. Estas incluso controlan la geometría de una falla potencial, lo que se conoce como falla con control cinemático. Por lo tanto, es necesario caracterizar su variabilidad de forma apropiada con el fin evaluar la estabilidad de los taludes en roca. En este trabajo se llevan a cabo análisis de confiabilidad de estabilidad de taludes rocosos. La orientación de las discontinuidades se modeló como una variable aleatoria siguiendo la distribución Fisher, que es rotacionalmente simétrica. Además, se planteó un algoritmo para identificar los mecanismos de falla, que fue adaptado a una propuesta existente para calcular el factor de seguridad de cuñas de roca de forma explícita. El algoritmo define de forma sistemática un arreglo de planos. Luego, verifica la posición del talud dentro que ese arreglo que se asocia al modo de falla. El algoritmo fue validado contra los resultados de un programa comercial para calcular factores de seguridad en cuñas de roca. En ambos casos se obtuvo el mismo resultado. Además, se calculó la probabilidad de falla y la función de probabilidad del factor de seguridad para cuñas removibles. Los análisis de confiabilidad mostraron la importancia de efectuar una caracterización adecuada de la variabilidad en la orientación de las discontinuidades, ya que el parámetro de concentración tuvo una gran probabilidad de falla. Se requiere efectuar un análisis cinemático para definir las cuñas removibles antes de calcular el factor de seguridad, ya que no todas las combinaciones de planos derivan en cuñas potencialmente inestables, lo que reduce la probabilidad de falla. De no efectuarse el análisis, esta se sobreestima. Finalmente, sugerimos ampliar este trabajo empleando distribuciones de probabilidad que no sean rotacionalmente simétricas.<hr/>Resumo Nos maciços rochosos, a presença de descontinuidades controla a resistência dos taludes. Eles até controlam a geometria de uma falha potencial, conhecida como falha controlada cinematicamente. Portanto, é necessário caracterizar adequadamente sua variabilidade para avaliar a estabilidade de taludes rochosos. Neste trabalho são realizadas análises de estabilidade e confiabilidade de taludes rochosos. A orientação das descontinuidades foi modelada como uma variável aleatória seguindo a distribuição de Fisher, que é rotacionalmente simétrica. Além disso, foi proposto um algoritmo para identificar os mecanismos de falha, que foi adaptado a uma proposta existente para calcular explicitamente o fator de segurança para cunhas de rocha. O algoritmo define sistematicamente uma matriz de planos. Em seguida, verifique a posição da inclinação dentro desse arranjo que está associado ao modo de falha. O algoritmo foi validado contra os resultados de um programa comercial para calcular fatores de segurança em cunhas de rocha. Em ambos os casos obteve-se o mesmo resultado. Além disso, foram calculadas a probabilidade de falha e a função de probabilidade do fator de segurança para cunhas removíveis. As análises de confiabilidade mostraram a importância de se realizar uma caracterização adequada da variabilidade na orientação das descontinuidades, uma vez que o parâmetro concentração apresentou alta probabilidade de falha. Uma análise cinemática é necessária para definir cunhas removíveis antes de calcular o fator de segurança, pois nem todas as combinações de planos resultam em cunhas potencialmente instáveis, o que reduz a probabilidade de falha. Se a análise não for realizada, ela é superestimada. Finalmente, sugerimos estender este trabalho usando distribuições de probabilidade que não são rotacionalmente simétricas.