Scielo RSS <![CDATA[Ingeniería e Investigación]]> http://www.scielo.org.co/rss.php?pid=0120-560920170002&lang=es vol. 37 num. 2 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Avances y novedades de la Revista Ingeniería e Investigación]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200001&lng=es&nrm=iso&tlng=es <![CDATA[Identificación de factores de riesgo para la gestión patrimonial óptima de sistemas de drenaje urbano: estudio piloto en la ciudad de Bogotá]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200006&lng=es&nrm=iso&tlng=es ABSTRACT The aim of this work is to identify and quantify physical and environmental explanatory variables for the structural state of urban drainage networks in a pilot study located in Bogota, Colombia. The analysis used information from 2291 CCTV inspections collected by the Water and Sewerage Company of Bogota (EAAB, from its Spanish initials) using tele-operated equipment during 2008-2010. Linear regression models were established to identify the environmental and physical characteristics of the pipes that are significantly associated with the occurrence, magnitude and type of the failures commonly found. Despite the fact that the correlation levels show that the developed model has a very low predictive capacity, it was found that the process of selecting assets for CCTV inspection can be optimized, increasing the success rate in failure detection.<hr/>RESUMEN Este artículo presenta los resultados de un estudio piloto realizado en la ciudad de Bogotá para identificar y cuantificar factores de riesgo físicos y/o ambientales de las redes de drenaje urbano, en el marco de un enfoque proactivo de gestión patrimonial de la infraestructura de servicios públicos. El análisis utiliza información de 2291 inspecciones de CCTV recopiladas por la Empresa de Acueducto y Alcantarillado de Bogotá (EAAB) mediante equipos tele-operados durante los años 2008 a 2010. Mediante modelos de regresión lineal se establecieron entre el conjunto de variables recopiladas mediante procesos de inspección por CCTV, aquellas que muestran una asociación estadísticamente significativa con la ocurrencia, magnitud y/o tipo de fallos que típicamente se encuentran en las conducciones, entre otras, material (Gres y P.V.C) y diámetro de la tubería. Los resultados muestran que es posible optimizar los recursos para la inspección de las redes con fines de mejorar la tasa de éxito en la detección de fallos. <![CDATA[Determinación de la susceptibilidad por movimientos en masa en infraestructura lineal. Caso: red de acueducto de Palacé, <em>Popayán</em> (Colombia)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200017&lng=es&nrm=iso&tlng=es ABSTRACT This research aimed to predict the occurrence of mass movements in the aqueduct network of Palacé, in the municipality of Popayan (Colombia). We evaluated the quality of SRTM and ASTER digital terrain models by comparing them with contour lines using a map scale of 1: 25000. The landscape parameters derived from the SRTM-DEM were analyzed with a multivariate procedure using algorithms implemented in free software, along with thematic information of the study area (coverage, distance to faults, rivers and precipitation). We selected non-redundant variables with the non-parametric ACP technique, and obtained a susceptibility prediction model using logistic regression, with two types of variables: dependent (landslides inventory from field observation) and independent (slope, slope length factor, topographic wetness index, flow path length, soil units and rate of convergence) resulting in a susceptibility map, reclassified into categories according to the values of probability. The prediction model could not be quantitatively assessed because of the absence of studies with a semi-detailed scale, but the estimation of the mean square error of elevation, from which the terrain parameters were derived, the level of detail and the performance of the classifier with ROC curve, yielded a zoning consistent with the findings of the field visits.<hr/>RESUMEN Esta investigación busca predecir la ocurrencia de movimientos en masa en la red de acueducto Palacé, en el municipio de Popayan (Cauca). Se evaluó la calidad de los modelos digitales del terreno SRTM y ASTER, comparándolos con curvas de nivel a escala 1:25000. Los parámetros del terreno, derivados del modelo DEM-SRTM, fueron analizados de forma multivariada mediante algoritmos implementados en software libre, junto con información temática de la zona de estudio (cobertura, distancia a fallas, a los ríos y la precipitación). Mediante la técnica no paramétrica del ACP se seleccionaron variables no redundantes, y se obtuvo un modelo de predicción de susceptibilidad mediante regresión logística utilizando variables dependientes (inventario de deslizamiento a partir del recorrido de campo) e independientes, correspondientes al terreno: la pendiente, el factor longitud de pendiente, el índice topográfico de humedad, la longitud de ruta de flujo, los suelos y el índice de convergencia. Esto permitió la obtención de un mapa de susceptibilidad que se reclasificó en categorías de acuerdo con valores de probabilidad obtenidos. El modelo de predicción no pudo evaluarse cuantitativamente al no haber estudios a escala semi-detallada, pero la estimación del error cuadrático medio de la elevación, desde la cual se derivaron los parámetros del terreno, el nivel de detalle obtenido y el desempeño del clasificador con la curva ROC, arrojó una zonificación concordante con lo encontrado en las visitas de campo realizadas. <![CDATA[Diseño óptimo para zapatas aisladas rectangulares usando la presión real del suelo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200025&lng=es&nrm=iso&tlng=es ABSTRACT The standard design method (classical method) for reinforced concrete rectangular footings is: First, a dimension is proposed and should comply with the allowable stresses; subsequently, the effective depth is obtained from the maximum moment and is checked against the bending shear and the punching shear until, it complies with these conditions and, then, steel reinforcement is obtained, but it is not guarantee that the minimum cost will be obtained. This paper shows an optimal design for reinforced concrete rectangular footings using the new model. A numerical experimentation is presented to show the model capability to estimate the minimum cost design of the materials used for a rectangular footing that supports an axial load and moments in two directions in accordance to the building code requirements for structural concrete and commentary (ACI 318-13). Also, a comparison is made between the optimal design and current design for rectangular footings. The solutions show that the optimal design is more economical and more precise with respect to the current design, because standard design is done by trial and error. Then, the optimal design should be used to obtain the minimum cost design for reinforced concrete rectangular footings.<hr/>RESUMEN El método clásico de diseño estándar para zapatas rectangulares de concreto reforzado es: Primero, se propone una dimensión que cumpla con los esfuerzos admisibles; posteriormente, la profundidad efectiva se obtiene a partir del momento máximo y se comprueba con el cortante por flexión y el cortante por punzonamiento hasta que cumpla con estas condiciones y, luego, se obtiene el refuerzo de acero, aunque no se garantiza que se obtendrá el costo mínimo. Este trabajo muestra un diseño óptimo para zapatas rectangulares de concreto reforzado utilizando el nuevo modelo. Una experimentación numérica se presenta para mostrar la capacidad del modelo para estimar el diseño de costo mínimo de los materiales utilizados para una zapata rectangular que soporta una carga axial y momentos en dos direcciones, de acuerdo con los requisitos del código de construcción para concreto estructural y comentarios (ACI 318-13). Además, se hace una comparación entre el diseño óptimo y el diseño actual de zapatas rectangulares. Las soluciones muestran que el diseño óptimo es más económico y más preciso con respecto al diseño actual, ya que este último se realiza a través de ensayo y error. De este modo, el diseño óptimo se debe utilizar para obtener el diseño de costo mínimo para zapatas rectangulares de concreto reforzado. <![CDATA[Determinación del modelo de velocidad de desplazamiento de peatones para programas de exploración terrestre]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200034&lng=es&nrm=iso&tlng=es ABSTRACT In Engineering and Geophysics field exploration, uncertainty for determination of the velocity of ground data acquisition due to extreme topographic conditions has been underestimated in the calculation of the displacement time between stations or sampling points. This lack of reliable models, negatively affects the determination of costs and planning of fieldwork activities. Known models of times and routes of displacement determination such as the "Smaller Cost Routes" are based on the effect of the type of land and the slope. However, these models consider the effect of the slope by means of subjective impedance values which has no a clear physical meaning. Furthermore, the upslope or downslope displacement is not considered to affect the reliability of velocity estimation. In this paper, a model of displacement velocity is proposed taking into account the upslope/downslope factor. The model was determined using real data from a topographical survey along a pipeline of 880 Km extended along terrains with changing climatic and topographic conditions. As a result, the proposed model improves the selection of optimal routes for a reliable time and cost estimation.<hr/>RESUMEN En los trabajos de exploración de campo en ingeniería y geofísica, ha existido cierta incertidumbre en la determinación de la programación de labores de adquisición en campo, debido a la dificultad de establecer los tiempos de desplazamiento entre las estaciones o puntos de muestreo. Esta falta de modelos confiables para estimar los rendimientos, afecta directamente la determinación de costos y la programación de los trabajos de manera óptima. Existen algunos modelos de determinación de tiempos y rutas de desplazamiento conocidos como "Rutas de Menor Costo", que consideran el efecto del tipo de terreno y la pendiente. Sin embargo, estos modelos consideran el efecto de la pendiente mediante valores de impedancia que son subjetivos y que no tienen un significado físico claro. Adicionalmente, dicho efecto se considera independiente de la dirección en que se recorra, es decir, no importa si se asciende o desciende por la pendiente. En el presente trabajo se determina un modelo de velocidades de desplazamiento para personal de campo trasladándose por diferentes terrenos, en el cual la dirección de la pendiente es considerada. Los datos empleados corresponden a un levantamiento topográfico de un oleoducto de 880 Kilómetros de longitud que atraviesa diferentes regiones con condiciones climáticas y topográficas diferentes. Como resultado de este estudio, el modelo propuesto mejora la selección de rutas óptimas para una mejor y más fiable estimación de tiempo y costos, a la vez que favorece una programación de trabajos de campo efectiva. <![CDATA[Desarrollo de un primer modelo cortical 3D de velocidades de la región de Bogotá, Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200042&lng=es&nrm=iso&tlng=es ABSTRACT Knowledge regarding the characteristics of soils in Bogotá basin has been possible to get through previous microzonation studies. However, there is still insufficient knowledge of the crustal velocity structure of the region. Bogotá is located in a region prone to a significant seismic hazard. Historically, the city has been affected by strong earthquakes, reaching moment magnitudes greater than or equal to 7. Furthermore, the city was built on a lacustrine basin, with soft soils of considerable depth that may strongly amplify the ground motion during an earthquake. In this article, we describe the development of a first crustal structure and material properties model for the region of Bogotá, Colombia, covering an area of about 130 km by 102 km. This effort aims at constructing a realistic 3D seismic velocity model using geological and geotechnical information from several sources. Major geological units have been identified and mapped into the model. The Inverse Distance Weighted (IDW) interpolation was used to create continuous surfaces delimiting the geological units. Seismic-wave properties are assigned to any point in the domain using a location-based approach. We expect this model to be useful for a wide range of applications, including dynamic ground motion simulations and fault system modeling.<hr/>RESUMEN El conocimiento sobre las características de los suelos de Bogotá ha sido posible de obtener a través de estudios previos de microzonificación. Sin embargo, todavía hay un conocimiento deficiente sobre las velocidades de onda y densidades de los suelos en la región. Bogotá está localizada en una región propensa a una amenaza sísmica significativa. Históricamente, la ciudad ha sido afectada por terremotos fuertes, alcanzando magnitudes de momento mayores o iguales a 7. Además, la ciudad se construyó sobre una cuenca lacustre, compuesta por suelos blandos de considerable profundidad, los cuales pueden amplificar considerablemente el movimiento durante la ocurrencia de terremotos. En este artículo presentamos el desarrollo de un primer modelo de material para la ciudad de Bogotá y municipios cercanos. Este esfuerzo tiene como objetivo construir un modelo sísmico de velocidades utilizando información geológica y geotécnica proveniente de varias fuentes de información. Un conjunto amplio de estructuras geológicas fue identificado e incluido en el modelo. Las superficies continuas que delimitan las estructuras geológicas fueron creadas interpolando mediante la distancia inversa ponderada (IDW) entre cortes geológicos disponibles. Las propiedades de las ondas sísmicas son asignadas por medio de un enfoque basado en la localización del punto de interés. Se espera que este modelo sea útil para una amplia gama de aplicaciones, incluyendo simulaciones dinámicas de movimientos de tierra y modelamiento de sistemas de fallas. <![CDATA[Estimación de calidad de experiencia (QoE) en ecosistemas de e-Salud]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200052&lng=es&nrm=iso&tlng=es ABSTRACT This article proposes a framework to design and implement e- Health interventions in a comprehensive manner. We draw on complexity science to study the interplay of the ecosystem, the behavior and interactions among its agents. We provide a platform to estimate the Quality of Experience (QoE) to assess the relationship between technology and human factors involved in e-Health projects. Our aim is to estimate QoE in e-Health ecosystems from the perspective of complexity by adopting a methodology that uses fuzzy logic to study the behavior of the ecosystem's agents. We apply the proposed framework to a remote diagnosis case by means of an ultrasound probe through a satellite link. Despite the ambiguities for determining QoE, the experiment demonstrates the applicability of the framework and allows to stressing the importance of human factors in the implementation of e-Health projects.<hr/>RESUMEN En este artículo se propone un marco de referencia para diseñar e implementar intervenciones de e-Salud de una manera integral. Recurrimos a la ciencia de la complejidad para estudiar la interacción de los agentes del ecosistema. Para ello, proporcionamos una plataforma para estimar la Calidad de Experiencia (o QoE, por sus siglas en inglés) para evaluar la relación entre la tecnología y los factores humanos que intervienen en los proyectos de e-Salud. Nuestro objetivo es estimar la QoE en los ecosistemas de e-Salud desde la perspectiva de la complejidad mediante la adopción de una metodología que utiliza la lógica difusa para estudiar el comportamiento de los agentes del ecosistema. Aplicamos el marco propuesto a un caso de diagnóstico remoto por medio de una sonda de ultrasonido a través de un enlace por satélite. A pesar de las ambigüedades involucradas en la determinación de calidad de la experiencia, el experimento demuestra la aplicabilidad del marco de referencia propuesto y permite subrayar la importancia de los factores humanos en la implementación de proyectos de e-Salud. <![CDATA[Mecanismo de intercambio entre las reflexiones en un canal de comunicaciones con la densidad espectral de potencia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200060&lng=es&nrm=iso&tlng=es ABSTRACT The theoretical limit given by the Shannon Capacity equation has been the origin of communications systems based on the interchange between bandwidth and power. This article explores the interchange between the power spectral density and the reflections that can be generated in a communications channel, with the ultimate aim of being able to decrease the power spectral density for the same capacity. The reflections can be expressed as a number of controlled reflections or by a reflection coefficient. The channels studied show that this exchange is possible. A new model based on feedback circuits was found to represent a transmission line, which was useful to study the MISO channel formed by several transmission lines of different length. A geometric elliptic dispersion model to represent a SISO channel was studied too.<hr/>RESUMEN El límite teórico dado por la ecuación de Capacidad de Shannon ha sido el origen de sistemas de comunicaciones basados en el intercambio entre el ancho de banda y la potencia. Este artículo explora el intercambio entre la densidad espectral de potencia y las reflexiones que se pueden generar en un canal de comunicaciones, con el fin último de poder disminuir la densidad espectral de potencia para una misma capacidad. Las reflexiones pueden ser expresadas como un número de reflexiones controladas o mediante un coeficiente de reflexión. Los canales estudiados muestran que este intercambio es posible. Se encontró un nuevo modelo basado en circuitos realimentados para representar una línea de transmisión, el cual resultó útil para estudiar el canal MISO formado por varias líneas de transmisión de diferente longitud. Además se estudió un modelo de dispersión elíptica geométrica para representar un canal SISO. <![CDATA[Rápida generación de parámetros de control del sistema Multi-Infeed a través de la simulación online]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200067&lng=es&nrm=iso&tlng=es ABSTRACT Simulated Self-Generated - Particle Swarm optimization (SSG-PSO) toolbox that automatically generates PI control parameters very quickly in PSCAD is designed. This toolbox operates by utilizing transient simulation to evaluate objective function and converges the fitness values of objective function through PSO algorithm during run time simulation of Multi-infeed HVDC systems. Integral Square Error-Objective Function (ISE-OF) is used to accomplish the task. To make the toolbox faster, ranges are set for PSO generated value that limit the time of data acquisition for the objective function by only considering transition time of a system. This toolbox has a capability to optimize multiple controllers at same time. The PI values are generated faster and the results are showing markedly improved performance of a system during startup and under fault condition. The experimental results are presented in this paper.<hr/>RESUMEN Se ha diseñado una caja de herramientas de optimización por enjambre de partículas simulado autogenerado que, automáticamente, genera parámetros de control PI de manera rápida en PSCAD. Esta caja de herramientas funciona mediante el uso de la simulación de transitorios para evaluar la función objetivo, y converge los valores de aptitud de la función objetivo a través del algoritmo PSO durante la simulación de tiempo de ejecución de los sistemas HVDC de alimentación múltiple. Aquí, la función de error cuadrático integral (ISE-OF) se utiliza para realizar esta tarea. Para hacer la caja de herramientas más rápida, se establecieron rangos para el valor generado PSO que limitan el tiempo de adquisición de datos para la función objetivo considerando únicamente el tiempo de transición de un sistema. Además, esta caja tiene la capacidad de optimizar varios controladores al mismo tiempo. Los valores de PI se generan más rápidamente y los resultados dejan ver un rendimiento notablemente mejorado de un sistema durante el arranque y, en condiciones de falla. En el presente trabajo se muestran los resultados experimentales. <![CDATA[Implementación de módulos de Propiedad Intelectual modificables para el cálculo de histogramas en FPGA sobre un flujo de diseño basado en modelos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200074&lng=es&nrm=iso&tlng=es ABSTRACT This work presents the development of self-modifiable Intellectual Property (IP) modules for histogram calculation using the model-based design technique provided by Xilinx System Generator. In this work, an analysis and a comparison among histogram calculation architectures are presented, selecting the best solution for the design flow used. Also, the paper emphasizes the use of generic architectures capable of been adjustable by a self-configurable procedure to ensure a processing flow adequate to the application requirements. In addition, the implementation of a configurable IP module for histogram calculation using a model-based design flow is described and some implementation results are shown over a Xilinx FPGA Spartan-6 LX45.<hr/>RESUMEN Este artículo presenta el desarrollo de módulos de propiedad intelectual modificables automáticamente para el cálculo de histogramas empleando el flujo de diseño basado en modelos provisto por Xilinx System Generator. En este artículo se realiza un análisis y comparación entre las arquitecturas para el cálculo de histogramas, seleccionando la mejor solución para el flujo de diseño empleado. También se hace énfasis en el uso de arquitecturas genéricas capaces de ajustarse a las necesidades del flujo de datos de la aplicación mediante un procedimiento de configuración automática. Además, se describe la implementación de un módulo de propiedad intelectual configurable para el cálculo de histogramas sobre el flujo de diseño basado en modelos, del cual se muestran algunos detalles de implementación para diferentes opciones de configuración sobre un FPGA Spartan-6 LX45 de Xilinx. <![CDATA[Circuito CMOS seguidor de voltaje "rotado" de micro-potencia con salida clase AB usando Técnicas de Compuerta Cuasi-flotante]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200082&lng=es&nrm=iso&tlng=es ABSTRACT This paper presents the design and characterization of a new analog voltage follower for low-voltage applications. The main idea is based on the "Flipped" Voltage Follower and the use of the quasi-floating gate technique for achieving class AB operation. A test cell was simulated and fabricated using a 0,5 μm CMOS technology. When the proposed circuit is supplied with VDD = 1,5 V, it presents a power consumption of only 413 μW. Measurement and experimental results show a gain-bandwidth product of 10 MHz and a total harmonic distortion of 1,12 % at 1 MHz.<hr/>RESUMEN En este trabajo se presenta el diseño y caracterización de un nuevo seguidor de voltaje analógico para aplicaciones de bajo voltaje. La idea principal aquí desarrollada, está basada en el Seguidor de Voltaje "Volteado" y el uso de técnicas de compuerta casi-flotante para lograr un funcionamiento de clase AB. Usando una tecnología CMOS de 0.5 μm, se simuló y se fabricó una celda de prueba. Cuando el circuito propuesto se alimenta con VDD = 1,5V, este presenta un consumo de potencia de tan solo 413 μW. Las mediciones y los resultados experimentales muestran un producto ganancia-ancho de banda de 10 MHz y una distorsión harmónica total de 1,12 % a 1 MHz. <![CDATA[Metodología de superficie de respuesta para estimar valores faltantes en un algoritmo genético de pareto usado en diseño de parámetros]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200089&lng=es&nrm=iso&tlng=es ABSTRACT We present an improved Pareto Genetic Algorithm (PGA), which finds solutions to problems of robust design in multi-response systems with 4 responses and as many as 10 control and 5 noise factors. Because some response values might not have been obtained in the robust design experiment and are needed in the search process, the PGA uses Response Surface Methodology (RSM) to estimate them. Not only the PGA delivered solutions that adequately adjusted the response means to their target values, and with low variability, but also found more Pareto efficient solutions than a previous version of the PGA. This improvement makes it easier to find solutions that meet the trade-off among variance reduction, mean adjustment and economic considerations. Furthermore, RSM allows estimating outputs' means and variances in highly non-linear systems, making the new PGA appropriate for such systems.<hr/>RESUMEN En este artículo se presenta un Algoritmo Genético de Pareto (AGP) mejorado que encuentra soluciones a problemas de diseño robusto en sistemas multi-respuesta con 4 respuestas y hasta 10 factores de control y 5 de ruido. Ya que algunas respuestas podrían no haber sido obtenidas en el experimento de diseño robusto y se necesitan en el proceso de búsqueda, el AGP usa metodología de superficie de respuesta (MSR) para estimarlas. El AGP no solo entregó soluciones que ajustan adecuadamente la media de las respuestas a sus valores meta y con poca variabilidad, sino que también encontró más soluciones Pareto eficientes que una versión previa del AGP. Esta mejora facilita encontrar soluciones que alcancen el balance entre reducción de variabilidad, ajuste de media y consideraciones económicas. Además, la MSR permite estimar las medias y varianzas de las respuestas de sistemas altamente no lineales, haciendo apropiado el uso del AGP en dichos sistemas. <![CDATA[Desempeño mecánico de una mezcla HMA-2 modificada con nanotubos y nanofibras de carbono con proceso y sin proceso de purificación]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200099&lng=es&nrm=iso&tlng=es ABSTRACT The present study evaluates the mechanical performance of a Hot Mix Asphalt - Type II (HMA-2) modified with carbon nanotubes and carbon nanofibers (CNTF). CNTF were made by means the Catalytic Vapor Deposition (CVD) technique at 700° C using a Nickel, Copper and Aluminum (NiCuAl) catalyst with a Cu/Ni molar relation of 0,33. In order to properly assess HMA-2 performance, three different mixtures were analyzed: 1) HMA-2 modified with purified CNTF; 2) HMA-2 modified with non-purified CNTF and, 3) a Conventional HMA-2 (control). Samples manufactured in accordance with the Marshall Mix Design were tested in the laboratory to study rutting, resilient modulus (Mr) and fatigue. In addition to the aforementioned dynamic characterization, the effect of CNTF purification on the asphalt mixture's mechanical properties was analyzed. In short, a comparative study was designed to determine whether or not CNTF should be purified before introduction into the HMA-2. This investigation responds to the growing demand for economical materials capable of withstanding traffic loads while simultaneously enhancing pavement durability and mechanical properties. Although purified CNTF increased HMA-2 stiffness and elastic modulus, non-purified CNTF increased the asphalt mixture's elastic modulus without considerable increases in stiffness. Thus, the latter modification is deemed to help address fatigue-related issues and improve the long-term durability of flexible pavements.<hr/>RESUMEN El siguiente estudio evalúa el desempeño mecánico de una mezcla asfáltica en caliente tipo II (HMA-2) modificada con nanotubos de carbono y nanofibras de carbono (NFTC). Los NFTC fueron fabricados por la técnica de Descomposición Catalítica de Vapor (DCV) a 700° C utilizando un catalizador de Níquel, Cobre y Aluminio (Ni, Cu, Al) con una relación molar Cu/Ni de 0,33. Con el fin de evaluar el desempeño mecánico de la mezcla HMA-2, se analizaron tres distintas muestras: 1) HMA-2 modificada con NFTC purificados; 2) HMA-2 modificada con NFTC no purificados; 3) HMA-2 convencional (mezcla de control). Las muestras se fabricaron de acuerdo con la metodología de diseño Marshall y fueron evaluadas en el laboratorio para estudiar su comportamiento ante el ahuellamiento, módulo resiliente (Mr) y fatiga. Como complemento de la caracterización dinámica mencionada, se analizó el efecto de la purificación de los NFTC en las propiedades mecánicas de la mezcla asfáltica. En resumen, se diseñó un estudio comparativo para determinar en qué condiciones de carga conviene que los NFTC estén purificados. Esta investigación responde a la alta demanda por parte de la industria de materiales económicos capaces de contrarrestar las cargas dinámicas del tránsito en términos de durabilidad y resistencia. NFTC purificados incrementaron la rigidez y el módulo de elasticidad de la mezcla HMA-2, por otro lado, los NFTC sin purificar incrementaron el módulo de elasticidad de la mezcla, pero no hubo cambios significativos en la rigidez. Es por esto que la modificación de la mezcla con NFTC sin purificar se considera adecuada para contrarrestar patologías relacionadas con fatiga, mejorando la durabilidad a largo plazo de los pavimentos flexibles. <![CDATA[Modelo elasto-plástico para determinar la fuerza máxima para un proceso de enderezamiento de un eje]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200107&lng=es&nrm=iso&tlng=es ABSTRACT This paper shows the development of a mathematical model based on elasto-plastic behavior of materials in order to determine the bending moment and the maximum straightening force required to repair a bent shaft. The importance of this work is because many machines use shafts to transmit power and movement, and these elements can suffer permanent deflections during operation cycles. An appropriate reparation process can increase the life of these elements significantly. Knowing the mechanics for a straightening process is essential for design, processes and maintenance engineers in charge of systems that use these elements (shafts).<hr/>RESUMEN Este artículo muestra el desarrollo de un modelo matemático basado en el comportamiento elasto-plástico del material con el objeto de determinar el momento de flexión y la fuerza máxima de enderezamiento requerida para reparar un eje doblado. La importancia de este trabajo radica en que muchas máquinas usan ejes para transmitir potencia y movimiento, y estos elementos pueden sufrir deflexiones permanentes durante sus ciclos de operación, de tal modo que un proceso adecuado de reparación puede incrementar la vida de estos elementos significativamente. Saber la mecánica del proceso de enderezamiento es esencial para los ingenieros de diseño, manufactura y mantenimiento a cargo de sistemas que usan este tipo de elementos (ejes). <![CDATA[Metodología de sincronización entre la estrategia y la operación. Un enfoque de modelado basado en estándares]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200111&lng=es&nrm=iso&tlng=es ABSTRACT Enterprise Architecture (EA) has gained importance in recent years, mainly for its concept of "alignment" between the strategic and operational levels of organizations. Such alignment occurs when Information Technology (IT) is applied correctly and timely, working in synergy and harmony with strategy and the operation to achieve mutually their own goals and satisfy the organizational needs. Both the strategic and operational levels have standards that help model elements necessary to obtain desired results. In this sense, BMM and BPMN were selected because both have the support of OMG and they are fairly well known for modelling the strategic level and operational level, respectively. In addition, i* modeling goal can be used for reducing the gap between these two standards. This proposal may help both the high-level design of the information system and to the appropriate identification of the business processes that will support it. This paper presents a methodology for aligning strategy and the operation based on standards and heuristics. We have made a classification for elements of the models and, for some specific cases, an extension of the heuristics associated between them. This allows us to propose methodology, which uses above-mentioned standards and combines mappings, transformations and actions to be considered in the alignment process.<hr/>RESUMEN La Arquitectura Empresarial (EA) ha ganado importancia en los últimos años, principalmente por su concepto de "alineación" entre los niveles estratégico y operacional de las organizaciones. Dicha alineación ocurre cuando la Tecnología de la Información (TI) se aplica correcta y oportunamente, trabajando en sinergia y armonía con la estrategia y la operación, logrando mutuamente sus propias metas, y alcanzando las necesidades de la organización. Tanto los niveles estratégicos como los operativos tienen estándares que ayudan a modelar los elementos necesarios para obtener los resultados deseados. En este sentido, el BMM y el BPMN fueron seleccionados debido a que tienen el soporte de la OMG y son bastante conocidos para modelar la estrategia y la operación respectivamente; además, el modelado de objetivos i* puede ser utilizado para reducir la brecha entre los dos estándares. Esta propuesta podrá ayudar tanto al diseño de alto nivel del sistema de información como a la identificación apropiada de los procesos de negocio que lo soportarán. Este artículo presenta una metodología para alinear la estrategia y la operación basada en estándares y heurísticas. Hemos realizado una clasificación de los elementos de los modelos y, en algunos casos específicos, una extensión de las heurísticas asociadas entre ellos. Esto nos permite proponer una metodología que utiliza los estándares antes mencionados y que combina mapeos, transformaciones y acciones a considerar en el proceso de alineación. <![CDATA[Patrones basados en esquemas preconceptuales para derivar indicadores clave de desempeño a partir de objetivos estratégicos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-56092017000200120&lng=es&nrm=iso&tlng=es ABSTRACT Performance measurement is crucial for achieving business success. Moreover, such success is also related to the fulfillment of the organizational strategic objectives. Hence, an adequate determination of relevant performance indicators-or key performance indicators (KPIs)-and their relationships to organizational objectives is needed. Even though several approaches for treating KPIs and objective-KPI relationships have been proposed, they exhibit some drawbacks associated with the lack of reusability and traceability. We attempt to fill this gap by proposing a set of patterns based on pre-conceptual schemas for supporting the systematic derivation of KPIs and their relationships to organizational objectives. In this way, the proposed patterns guarantee a reusable and traceable derivation process of a set of candidate KPIs from organizational strategic objectives. Lastly, we provide a lab study in order to illustrate the usefulness of this proposal.<hr/>RESUMEN La medición del desempeño es crucial para alcanzar el éxito empresarial. Dicho éxito también se relaciona con el cumplimiento de los objetivos estratégicos organizacionales. Por lo tanto, es necesario determinar adecuadamente, indicadores de desempeño relevantes- o indicadores clave de desempeño (KPIs por sus siglas en inglés) -, y sus relaciones con los objetivos organizacionales. Existen varios enfoques para tratar los indicadores clave de desempeño y sus relaciones con los objetivos, pero presentan algunos inconvenientes asociados con la falta de reusabilidad y trazabilidad. Para cubrir este vacío, en este artículo se propone un conjunto de patrones basados en esquemas preconceptuales que permiten determinar sistemáticamente los indicadores clave de desempeño y sus relaciones con los objetivos organizacionales. Así, los patrones propuestos garantizan un proceso de derivación reusable y trazable de un conjunto candidato clave de indicadores de desempeño a partir de objetivos estratégicos organizacionales. Finalmente, se desarrolla un estudio de laboratorio con el fin de ilustrar la utilidad de esta propuesta.