Scielo RSS <![CDATA[DYNA]]> http://www.scielo.org.co/rss.php?pid=0012-735320170001&lang=es vol. 84 num. 200 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Método práctico para la evaluación de riesgo en parques de transformadores de potencia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100011&lng=es&nrm=iso&tlng=es Abstract A useful tool to support the decision-making process in power transformer management is risk assessment. There are few practical methodologies to assess a Transformer Risk Index (TRI). In addition, such proposals do not consider the latest advances in techniques for transformer health valuation, and they also have other drawbacks. This paper proposes a practical method to undertake risk analysis of power transformer fleets, which deal with the stated problem. The proposal appropriately considers the best attributes of the methods reported in literature in order to compute the two components of TRI, i.e., the failure probability factor and the consequence factor. Moreover, this paper contributes to the risk analysis issue by including risk matrices and clustering techniques to support the decision-making process. The presented method was tested on a fleet of fourteen transformers. This approach serves as a practical and reliable tool for asset management in power utilities.<hr/>Resumen La evaluación de riesgo es una herramienta útil para apoyar el proceso de toma de decisiones para la gestión de transformadores de potencia. Existen pocas metodologías prácticas para evaluar un índice de riesgo del transformador (TRI). Además, tales propuestas no tienen en cuenta los últimos avances en técnicas para la valoración de la salud del transformador, entre otros inconvenientes. En este artículo se propone un método práctico para el análisis de riesgo en flotas de transformadores de potencia, el cual plantea soluciones a los problemas mencionados. La propuesta incluye los mejores atributos de los métodos reportados en la literatura, con el fin de calcular los dos componentes del TRI, es decir, el factor de probabilidad de falla y el factor consecuencias de la falla. Por otra parte, este trabajo contribuye con el análisis de riesgos mediante la inclusión de matrices de riesgo y técnicas de agrupamiento que permiten apoyar de manera robusta el proceso de toma de decisiones. El método presentado es probado en una flota de catorce transformadores. Este enfoque sirve como una herramienta práctica y fiable para la gestión de los activos de las empresas eléctricas. <![CDATA[Estudio térmico en tres frenos de disco ventilados, utilizando el análisis de elementos finitos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100019&lng=es&nrm=iso&tlng=es Abstract During the braking process, the heat produced by the friction between the brake pads and the disc is not quickly dissipated, this depends on the geometry and material of manufacture. Therefore, in the disc brake when a strong braking is caused, they can accumulate large amounts of heat in a short time, producing high temperature gradients. Under these conditions, functionality and safety of the brake system may be compromised. The objective of this research is to simulate the behavior of the temperature between the disk surface and the ventilation channels in three brakes ventilated disc, in order to compare the results obtained mathematically with those obtained in the Finite Element Analysis (F.E.A) with help Solidworks Simulation Software. The results show that the disks can be used effectively in extreme work conditions, while ensuring high levels of security. Given optimal performing maintenance and quality of the braking system.<hr/>Resumen Durante el proceso de frenado, el calor producido por la fricción entre las pastillas de freno y el disco no es disipado rápidamente, esto depende de la geometría y del material de fabricación. Por consiguiente, en el freno de disco cuando se provoca un frenado muy fuerte, se pueden acumular grandes cantidades de calor en un corto tiempo, produciéndose altos gradientes de temperatura. Bajo estas condiciones, la funcionalidad y la seguridad del sistema de freno pueden estar comprometidos. El objetivo de esta investigación es simular el comportamiento de la temperatura entre la superficie del disco y los canales de ventilación en tres frenos de disco autoventilados, con la finalidad de comparar los resultados adquiridos matemáticamente con los obtenidos en el Análisis de Elementos Finitos (F.E.A) con apoyo del Software Solidworks Simulation. Los resultados demuestran que los discos se pueden utilizar de manera efectiva en condiciones de trabajo extremo, además de garantizar altos niveles de seguridad. Teniendo en cuenta la realización de óptimos mantenimientos y la calidad del sistema de frenado. <![CDATA[Emergencia ontológica basada en análisis de contexto, como servicio para ambientes inteligentes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100028&lng=es&nrm=iso&tlng=es Abstract An Intelligent Environment (IE) is composed by intelligent devices that interact with each other in carrying out their task, and they need to understand their contexts to provide adequate services to their users. An IE for Learning in the Cloud (IECL) is one that facilitates the location and use of educational services available in the cloud, which will be made available to users (teachers and students), resulting in an improvement of their teaching-learning process. One of the fundamental aspects for the development of IECLs, it is the contextual awareness. This paper integrates an IECL, based on Multi-Agent Systems, with services of Context Awareness, which enrich the Semantic Model of the IECL, characterized by an ontological knowledge base, which allows the agents of AmICL to take decisions adapted to the context. Particularly, through processes of ontological mining and using meta-ontologies, emerge ontological models appropriate to the context.<hr/>Resumen En los Ambientes Inteligentes (AmI) existen dispositivos inteligentes que interactúan entre sí en el cumplimiento de sus tareas, que necesitan entender su contexto para poder ofrecer servicios adecuados a sus usuarios. Un AmI para aprendizaje en la nube (AmICL) es aquel que facilita la ubicación y uso de servicios educativos disponibles en la nube, que serán puestos a disposición de los usuarios (Profesores y Estudiantes), derivando en una mejora en sus procesos de enseñanza-aprendizaje. Uno de los aspectos fundamentales para su desarrollo, es la consciencia contextual. Este trabajo integra un AmICL basado en Sistema Multi-Agentes, con servicios de Consciencia de Contexto, enriqueciendo el modelo Semántico de AmICL a través de una base de conocimiento ontológica que permite a los agentes de AmICL tomar decisiones adaptadas al momento. Particularmente, a través de procesos de minería ontológica y el uso de meta-ontologías, para hacer emerger modelos ontológicos adecuados al contexto. <![CDATA[Relación entre el grado de creatividad y la calidad de los resultados de diseño]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100038&lng=es&nrm=iso&tlng=es Abstract This work analyses the relationship between the degree of creativity, measured through the level of novelty and the level of usefulness, and the quality of the design outcomes. To do so, a total of twelve conceptual designs obtained in a design experiment were measured and compared. In this experiment, four teams of three designers solved different design problems, applying brainstorming, SCAMPER and functional analysis as design methods. The quality of the design solutions have been evaluated in terms of feasibility and effectiveness by experts through a questionnaire. Feasibility and effectiveness were then compared with the novelty, usefulness and creativity, the results showing that as novelty increases, feasibility tends to be lower, and the more usefulness the design offers, the more effective it is.<hr/>Resumen Este trabajo analiza la relación entre el grado de creatividad, medido a través del nivel de novedad y el nivel de utilidad, con la calidad de las soluciones del diseño. Para ello, un total de doce soluciones conceptuales obtenidas en un experimento de diseño han sido medidas y comparadas. En el experimento cuatro equipos de tres diseñadores cada uno, resolvieron distintos problemas de diseño aplicando el brainstorming, el SCAMPER y el análisis funcional como métodos de diseño. La calidad de las soluciones de diseño se ha evaluado por expertos en términos de factibilidad y efectividad usando un cuestionario. La factibilidad y la efectividad se comparado con la novedad, la utilidad y la creatividad, observando que cuando aumenta la novedad, la factibilidad tiende a reducirse y que, cuando mayor es la utilidad mayor es el grado de efectividad también. <![CDATA[Modelo termo-hidro-mecánico de ajuste de parámetros mediante un sistema científico de flujo de trabajo distribuido]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100046&lng=es&nrm=iso&tlng=es Abstract This work presents a numerical approach for the automatic adjustment of parameters of the Mazars Damage Model, applied to a thermo-hydro-mechanical modeling of concrete structures. The procedure is based on a Scientific Workflow System (SWS) that addresses the combinatorial universe of adjustable parameters by minimizing the number of simulations required for optimized results. Not only does SWS improve efficiency, by also makes the strategy easier when compared to manual procedures. The adopted algorithm is developed in an intuitive script language and employs a distributed computational environment. Comparison to experimental data indicates that the proposed methodology was efficient and effective in improving the analysis, by minimizing errors and saving processing time.<hr/>Resumen Este trabajo presenta una estrategia numérica para el ajuste automático de parámetros del Modelo de Daño de Mazars, aplicado a un modelado termo-hidro-mecánico de estructuras de concreto. El procedimiento se basa en un sistema de flujo de trabajo científico (SWS) que aborda el universo combinatorio de parámetros ajustables al minimizar el número de simulaciones requeridas para obtener resultados optimizados. SWS no sólo mejora la eficiencia, sino que también facilita la estrategia en comparación con los procedimientos manuales. El algoritmo adoptado se desarrolla en un lenguaje de escritura intuitivo y emplea un ambiente computacional distribuido. La comparación con los datos experimentales indica que la metodología propuesta fue eficiente y efectiva para mejorar el análisis, minimizando los errores y ahorrando tiempo de procesamiento. <![CDATA[Estudio de la velocidad de ascenso y fuerza boyante en un termal con convección libre]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100053&lng=es&nrm=iso&tlng=es Abstract In this paper we study the rate of climb, thermal expansion and buoyancy force with free convection considering it as an incompressible fluid and steady. Thermal analysis is given for different values of the Grashof number given a linear approximation of temperature. For this, the dimensional finite difference method is used, and dynamic Navier-Stokes equation is solved in the Boussinesq approximation, in order to get the particle velocity of fluid as a function of height and radius of the thermal.<hr/>Resumen En este trabajo se estudia la velocidad de ascenso, expansión de un termal y fuerza boyante con convección libre considerándolo como un fluido incompresible y estacionario. El análisis del termal se dará para diferentes valores del número de Grashof considerando una aproximación lineal de temperatura. Para esto se utiliza el método de diferencias finitas unidimensional, y se soluciona la ecuación dinámica de Navier-Stokes en la aproximación de Boussinesq, con el propósito de obtener la velocidad de la partícula de fluido como función de la altura y el radio del termal. <![CDATA[Control óptimo con estructura de compensación de tiempo muerto para sistemas multivariábles con retardo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100062&lng=es&nrm=iso&tlng=es Abstract State space optimal controllers became popular over the last decades mainly because of its performance and robustness properties, as well as easy extension for multi-variable systems (MIMO). On the other hand, many industrial processes present dominant dead-time which may cause issues related to performance or even stability. Despite of its importance, few works from optimal control may be traced for this matter. In order to deal with dead-time effect one may use dead-time compensation (DTC) structures, mainly applied for single-variable systems (SISO). Within this context, this work proposes to modify a prediction structure recently proposed aiming to combine the best properties of both DTC and optimal control for MIMO linear systems. Simulation results along with the application to an experimental setup of a neonatal incubator prototype are presented to highlight the advantages and show the effectiveness of the proposed control strategy, as well as its practical aspect.<hr/>Resumen Los controladores óptimos en espacio de estado han tenido bastante popularidad en las últimas décadas, principalmente, debido a sus buenas propiedades de robustez, desempeño y la posibilidad de aplicación en sistemas multivariables. Sin embargo, muchos procesos industriales presentan retrasos dominantes entre sus variables los cuales pueden ocasionar problemas de desempeño y estabilidad. A pesar de su importancia, existen pocos trabajos reportados de control óptimo que tratan este problema. Para mitigar el efecto del retraso pueden ser usadas estructuras compensación de retraso conocidas como DTC y usadas principalmente en procesos monovariables. En este trabajo se propone la modificación de una estructura de predicción recientemente propuesta con el objetivo de combinar las mejores propiedades de un DTC y del control óptimo para controlar procesos lineares multivariables (MIMO). Resultados de simulación y la aplicación al prototipo de laboratorio de una incubadora neonatal son usados para mostrar las ventajas, efectividad y practicidad de la estrategia propuesta. <![CDATA[Efecto de la aireación, la agitación y el pH sobre la producción de biomasa micelial y exopolisacáridos del hongo filamentoso <em>Ganoderma lucidum</em>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100072&lng=es&nrm=iso&tlng=es Abstract Due to the increasing demand for functional foods and dietary supplements, mushroom production has increased significantly in recent years, which is why the study of operational conditions affecting the biotechnology cultivation of these mushrooms has become the aim of numerous studies. This study attempted to know the effect of pH, agitation and aeration on the biomass and polysaccharides production of filamentous fungus Ganoderma lucidum in fermentations made in a 5L bioreactor. The results allowed to establish that a bistage pH strategy (one stage with a fixed pH control, and a second stage without control), combined with hydrodynamic stress, which involves high agitation and high aeration, favors biomass and polysaccharides production, achieving increases of up to 100% compared to that obtained with the reference conditions.<hr/>Resumen Debido a la creciente demanda de alimentos funcionales y suplementos dietarios, la producción de hongos ha aumentado significativamente en los últimos años, razón por la cual el estudio de las condiciones operacionales que afectan el cultivo biotecnológico de estos hongos se ha convertido en el objeto de estudio de muchos investigadores. Con esta investigación se busca evaluar el efecto que tiene el pH, la agitación y la aireación sobre la producción de biomasa y polisacáridos de un hongo filamentoso en fermentaciones realizadas en biorreactor de 5L. Los resultados permitieron establecer que una estrategia de pH escalonado que incluye dos etapas una con control a un pH fijo y una segunda etapa sin control, combinada con estrés hidrodinámico, que implica alta agitación y alta aireación, favorece la producción de biomasa y polisacáridos, alcanzando incrementos de hasta 100% comparados con los obtenido con las condiciones de referencia. <![CDATA[Diseño de sistema de control automático basado en redes de Petri hibridas temporizadas unificadas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100080&lng=es&nrm=iso&tlng=es Abstract A practical problem in automation systems modeling is the choice between a fully hybrid approach and the fluidization of some parts conserving the general discrete event approach. This paper explores the approach based on specific hybrid parts into a discrete event system using a unified Petri nets environment called GHENeSys (General Hierarchical Enhanced Net System), which follows the ISO/IEC 15909 standard and includes extensions such as hierarchy and time concepts. Then, a design method based on GHENeSys Timed Hybrid Petri Net (GTHPN) technique is proposed to model these hybrid parts. GHENeSys subnets are associated with macro-places and help to control combinatorial explosion and has extended arcs to guarantee the GTHPN applicability to practical cases. All resulting models of the approach proposed could also benefit from an easier conversion to PLC programs in IEC 61131 representation. A case study is presented for producing constructive blocks showing the advantages of the current proposition.<hr/>Resumen Un problema práctico en sistemas automatizados es la selección entre el enfoque totalmente híbrido o la fluidización de algunas partes conservando el enfoque general de eventos discretos. Este articulo trata el enfoque basado en partes hibridas en un modelo discreto usando el ambiente unificado de Redes de Petri llamado GHENeSys (Sistema de Red Extendida Jerárquica General), compatible con la norma ISO/IEC 15909 incluyendo los conceptos de jerarquía y tiempo. Por tanto, se propone un método de diseño y una técnica GTHPN (Redes de Petri Temporizadas Hibridas GHENeSys) para modelar estas partes híbridas. Las subredes en macro-lugares controlan la explosión de estados y controlar transiciones mediante arcos extendidos de GHENeSys garantiza la efectividad de GTHPN para casos prácticos. Además, todo modelo resultante permite una fácil conversión a programas de PLCs en lenguajes IEC61131. Se presenta un caso de estudio para producción de bloques de construcción demostrando estas ventajas mencionadas. <![CDATA[Caracterización reológica de ligantes asfalticos empleados en capas asfálticas de alivio de deformaciones]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100090&lng=es&nrm=iso&tlng=es Abstract The use of ´interlayers´ that tolerate high tensile and shear strain that exists above cracks in deteriorated pavements is becoming an interesting solution to prevent reflective cracking. Recent advances in polymer technology have led to binders that can be used to produce interlayer mixtures with good mechanical properties. In this study, two polymer-modified asphalt binders were evaluated, both from the production of strain relief asphalt mixtures used as interlayers in the field. The binder characterization was presented in two groups: (i) the empirical tests required in the Brazilian specification, and (ii) the rheological properties (frequency/temperature sweep and MSCR tests). Results showed that the difference in rheological properties of the asphalt binder used for strain relief asphalt mixtures did not follow the same difference obtained according to the empirical tests of the Brazilian specification. The G*/sinδ and MSCR parameters (Jnr and percentage of recovery) were able to differentiate the asphalt binders, but the MSCR parameters were more sensitive.<hr/>Resumen El uso de capas intermedias que toleren los altos esfuerzos de tensión y cortantes que existen alrededor de las grietas de pavimentos deteriorados se ha constituido en una solución interesante para prevenir la reflexión de grietas. Avances recientes en la tecnología de polímeros han generado ligantes que pueden ser usados para producir mezclas para capas intermedias con buenas propiedades mecánicas. En este estudio, dos asfaltos modificados con polímeros fueron evaluados, ambos empleados en la producción de mezclas asfálticas de alivio de deformaciones usadas como capas intermedias en campo. La caracterización de los ligantes se presentó en dos grupos: (i) los ensayos empíricos requeridos por la especificación brasilera, y (ii) las propiedades reológicas (barrido de frecuencia/temperatura y ensayos MSCR). Los resultados mostraron que el ligante asfáltico usado para las mezclas asfálticas de alivio de deformaciones presentó propiedades reológicas considerablemente diferentes, a pesar de que su caracterización a través de ensayos empíricos es similar. Los parámetros G*/sinδ y MSCR (Jnr y porcentaje de recuperación) lograron diferenciar los ligantes asfálticos, aunque los parámetros del MSCR mostraron mayor sensibilidad. <![CDATA[Método para la estimación de la competitividad: El caso de la industria maquiladora de ropa en Centroamérica]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100097&lng=es&nrm=iso&tlng=es Abstract This paper proposes an integrated method for estimating the manufacturing competitiveness of companies using their comparative performance in their manufacturing objectives. The developed method uses an extensive analysis of the literature along with expert analysis through the Delphi method to identify the factors influencing competitiveness in the industry under study. Different statistical coefficients such as Cronbach’s alpha, Kendall’s W, Fleiss’ kappa and Intraclass Correlation are used to assure reliability in the instruments and the experts’ opinion. Exploratory factor analysis (EFA) and a subsequent confirmatory factor analysis (CFA) are used as the means to obtain the measurement model with which to calculate an indicator of manufacturing competitiveness. An empirical case study using the proposed method is performed in a sample of apparel maquiladora plants.<hr/>Resumen En este trabajo se propone un método integrado para la estimación de la competitividad de fabricación de las empresas utilizando su rendimiento comparativo en sus objetivos de fabricación. El método desarrollado utiliza un extenso análisis de la literatura, junto con un análisis de expertos a través del método Delphi para identificar los factores que influyen en la competitividad de la industria bajo estudio. Diferentes coeficientes estadísticos tales como el alfa de Cronbach, W de Kendall, kappa de Fleiss y la correlación intraclase se utilizan para asegurar la fiabilidad de los instrumentos y de la opinión de los expertos. El análisis exploratorio de factores (EFA por sus siglas en inglés) y un posterior análisis factorial confirmatorio (CFA por sus siglas en inglés) se utilizan como el medio para obtener el modelo de medición con el que se calcula un indicador de la competitividad de fabricación. Un caso de estudio empírico utilizando el método propuesto se lleva a cabo en una muestra de plantas maquiladora de ropa. <![CDATA[Estudio de la dispersión de Cloisite 10A en polietilentereftalato reciclado mediante extrusión]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100107&lng=es&nrm=iso&tlng=es Abstract This research focuses on clay dispersion of commercial Cloisite 10A in recycled PET (RPET) to improve the properties of recycled polymer lost in the reprocessing of materials, specifically during extrusion. Varying mixtures of RPET/Cloisite 10A were prepared in a single screw extruder. The mixtures obtained were reprocessed in capillary rheometer-type single screw extruder and passed through a capillary die, at high shear stress to increase the dispersion of clay in the polymer matrix. Results show physical degradation of materials. X-ray diffraction (XRD) indicated exfoliation of clay with low concentrations. Furthermore, rheology results show that viscosity rate decreases with increase in clay concentration in the mixtures. Scanning electron microscopy (SEM) reveals low dispersion of clay with an increase of concentration.<hr/>Resumen Esta investigación fue enfocada en la dispersión de una arcilla de marca comercial Cloisite 10A en PET reciclado (RPET) para mejorar las propiedades del polímero reciclado que se perdieron en el reprocesamiento de los materiales, específicamente durante la extrusión. Diferentes mezclas de RPET/Cloisite 10A fueron preparadas en un extrusor monohusillo. Las mezclas obtenidas fueron reprocesadas en un extrusor monohusillo tipo reómetro y pasadas a traves de un dado capilar en altos esfuerzos de corte para para incrementar la dispersión de la arcilla en la matriz polimérica. Los resultados muestran degradación física de los materiales. Difracción de rayos X (XRD) indica exfoliación de la arcilla con bajas concentraciones. Además, los resultados reológicos muestran decremento en la viscosidad con incremento de la concentración de la arcilla en las mezclas. Microscopia electrónica de barrido (SEM) revela baja dispersión de la arcilla con incremento de la concentración. <![CDATA[Modelo de simulación para estimar la sobrerresistencia a flexión de elementos de concreto]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100112&lng=es&nrm=iso&tlng=es Abstract A simulation model to estimate bending overstrength in reinforced concrete elements is presented. The simulation model employs basic design hypotheses according to NTC-04 [1] and ACI 318-11 [2] for rectangular concrete beams subjected to bending with rebars in the tension zone only. Concrete compression strength is included in the model as a random variable to estimate the uncertainty in bending strength on rectangular beams. Concrete compressive strength is evaluated for more than 16,000 compression tests for mixtures designed for 200 kgf/cm² (19.6 MPa) and 250 kgf/cm² (24.5 MPa). The main objective of this work is to assess the influence of real concrete compressive strength on the bending overstrength computed from analytical models used by actual construction codes like NTC-04 and ACI 318-11.<hr/>Resumen En este artículo se presenta un modelo de simulación para estimar la resistencia a flexión de elementos de concreto. El modelo de simulación emplea las hipótesis básicas de diseño de acuerdo con las NTC-04 [1], así como con el ACI 318-11 [2] para vigas de sección rectangular con acero de refuerzo solamente en la zona de tensión. La resistencia a la compresión del concreto se integra al modelo como una variable aleatoria con el fin de estimar la incertidumbre en la resistencia a flexión de las vigas. La resistencia a la compresión del concreto se estima a partir de más de 16 mil pruebas con mezclas diseñadas para obtener 200 kg/cm² (19.6 MPa) y 250 kg/cm² (24.5 MPa). El principal objetivo de este trabajo es el de evaluar la influencia que tiene la resistencia a la compresión del concreto en la sobrerresistencia estimada a flexión empleando modelos analíticos que se encuentran en los reglamentos de diseño como lo son las NTC-04 y el ACI 318-11. <![CDATA[Evaluación de la estabilidad de un talud de carretera por análisis numérico]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100121&lng=es&nrm=iso&tlng=es Abstract Mass movement in natural slopes can cause great material and human loss for society. In this context, stability analyses become quite complex since there are a large number of uncertainties involved in the interpretation of the problem. This paper presents an analysis of the stability of a highway slope, located near the city of Guarulhos, in São Paulo, Brazil. The shear strength parameters of the soil and the stratigraphic profile were defined based on the results of Standard Penetration Tests (SPT). The initial factor of safety was below the minimum value recommended by the Brazilian technical standards, but did not indicate imminent failure. However, additional analyses which incorporated the influence of critical periods of rain and probabilistic analysis indicated that the stability of the section was unsatisfactory. Therefore, numerical modeling is shown to be a complex and effective tool for implementation of conventional analyses of slope stability.<hr/>Resumen Los movimientos de masas en taludes naturales pueden causar grandes pérdidas humanas y materiales para una sociedad. En este contexto, el análisis de estabilidad se convierte en un problema muy complejo ya que hay un gran número de incertidumbres implicadas en la interpretación. En este artículo se presenta el análisis de la estabilidad de un talud de carretera, situado en Guarulhos, São Paulo, Brasil. Los parámetros de resistencia al corte y el perfil estratigráfico del suelo se obtuvieron con base en los resultados de ensayos de penetración estándar (SPT). El factor de seguridad inicial era inferior al valor mínimo recomendado por las normas técnicas brasileñas, pero sin indicar la ruptura inminente. Sin embargo, un análisis más detallado teniendo en cuenta la influencia de los períodos críticos de la lluvia y el análisis probabilístico indicó que la estabilidad de una sección no era satisfactoria. Por lo tanto, el análisis numérico resultó una herramienta compleja y eficaz para la aplicación de análisis de estabilidad de taludes convencionales. <![CDATA[Estudio comparativo de representaciones multiescala para clasificación de imágenes hiperespectrales]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100129&lng=es&nrm=iso&tlng=es Abstract Hyperspectral remote sensors acquire data coming from hundreds of narrow bands through the electromagnetic spectrum; this allows the terrestrial and maritime surfaces to be characterized for Earth observation. Hyperspectral image processing requires algorithms that combine spatial and spectral information. One way to take full advantage of spatial-spectral data within hyperspectral imagery is to use multiscale representations. A multiscale representation generates a family of images were fine details are systematically removed. This paper compares two multiscale representation approaches in order to improve the classification of hyperspectral imagery. The first approach is based on nonlinear diffusion, which obtains a multiscale representation by successive filtering. The second is based on binary partition tree, an approach inspired in region growing. The comparison is performed using a real hyperspectral image and a supper vector machine classifier. Both representation approaches allowed the classification of hyperspectral imagery to be improved. However, nonlinear diffusion results surpassed those obtained using binary partition tree.<hr/>Resumen Los sensores remotos hiperespectrales adquieren datos a lo largo de cientos de bandas estrechas a través del espectro electromagnético permitiendo la caracterización de las superficies terrestres y marítimas para la observación de la Tierra. El procesamiento de imágenes hiperespectrales requiere de algoritmos que combinen la información espacial y espectral. Una forma de tomar ventaja de los datos espaciales y espectrales en las imágenes hiperespectrales es usar representaciones multiescala. Una representación multiescala genera una familia de imágenes donde los detalles finos son sistemáticamente removidos. Este artículo compara dos enfoques de representación multiescala para mejorar la clasificación de imágenes hiperespectrales. El primer enfoque se base en difusión no linear la cual obtiene la representación multiescala por medio de sucesivos filtros. El segundo se basa en un árbol de partición binaria, un enfoque inspirado en crecimiento de regiones. La comparación se realiza usando la imagen hiperespectral Indian Pines y un clasificador de máquinas de soporte vectorial. Ambos enfoques de representación permiten mejorar la clasificación de la imagen hiperespectral. Pero, los resultados de difusión no lineal superan los obtenidos usando el árbol de partición binaria. <![CDATA[Monitoreo y control del proceso de pesaje multicabezal a través de un gráfico de control modificado]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100135&lng=es&nrm=iso&tlng=es Abstract Modified control charts are used to monitor and control manufacturing processes which are considered to be six-sigma processes. The use of these charts is based on the idea that the cost of identifying and correcting special causes is much higher than the cost of off-target products. Therefore, the process mean is essentially acceptable as long as it is anywhere within the specification limits. These concepts are applied to the packaging process in multihead weighers. The weight of the packed product, seen as the quality characteristic to be monitored, must be as close to a specified target weight as possible and comply with applicable regulations. The packaging process was previously optimized and improved using a packaging strategy, which was evaluated through a proposed packing algorithm. In this way, a set of numerical experiments were conducted to examine the solutions generated, which were subsequently monitored.<hr/>Resumen Los gráficos de control modificados se utilizan para el seguimiento y control de procesos de fabricación que son considerados como procesos seis-sigma. El uso de estos gráficos se basa en la idea de que el costo de identificar y corregir causas especiales de variación es mucho más alto que el costo de productos alejados de su valor nominal. Por lo tanto, la media del proceso es esencialmente aceptable siempre que esté dentro de los límites de especificación. Estos conceptos han sido aplicados al proceso de envasado en pesadoras multicabezal. El peso del producto envasado, visto como la característica de calidad a ser monitoreada, debe ser lo más cercano posible a un peso objetivo y cumplir con la normativa. El proceso ha sido previamente optimizado y mejorado mediante una estrategia de envasado, la cual es evaluada a través de un algoritmo de envasado. De esta manera, un conjunto de experimentos numéricos fueron realizados para examinar las soluciones generadas, las cuales son posteriormente monitoreadas. <![CDATA[Convertidores de potencia: Un caso dinámico híbrido]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100143&lng=es&nrm=iso&tlng=es Abstract The hybrid paradigm (often referred to as Cyber-Physical-Systems) can be employed to understand (by modelling) or to manipulate (by control design) the dynamical behavior of systems. In this paper, a system of wide use in applications (Buck-type power converter) with a simple type of controller (On-Off) is addressed from a perspective of hybrid modelling, developed upon a set-based formulation scheme. This approach is novel in the sense that it allows the formulation of generic formal rules as sets for the transition between continuous and discrete modes of a hybrid model, which can be further implemented as software routines for simulation purposes. Indeed, it is shown how the controlled system can be understood as the union between the system and controller sets. Numerical results obtained with a commercial circuit simulator were replicated by evaluating the set-based formulations, constituting a valuable tool in the path to understand the behavior of complex discontinuous systems.<hr/>Resumen El paradigma híbrido (o de Sistemas Ciber-físicos) puede ser empleado para entender (modelar) o manipular (controlar) el comportamiento dinámico de sistemas. Este artículo aborda el modelado desde una perspectiva híbrida para describir la dinámica de un circuito convertidor de potencia bajo la acción de un controlador encendido-apagado, a través de una formulación basada en conjuntos. Este enfoque es novedoso en cuanto permite formular reglas genéricas pero formales, a partir de transiciones entre modos de operación del sistema, lo cual facilita su posterior implementación computacional en entornos de simulación. De hecho, se muestra como el sistema controlado puede explicarse en términos de la unión de los conjuntos que describen el circuito y su control. Resultados generados en un simulador comercial de circuitos replican las predicciones obtenidas tras evaluar las reglas de conjuntos propuestas, representando un paso importante en el camino hacia la comprensión del comportamiento dinámico de sistemas discontinuos más complejos. <![CDATA[Sistema para la estimación de orillas usando técnicas de sensado remoto con radar y procesamiento de imágenes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100151&lng=es&nrm=iso&tlng=es Abstract This paper proposes a radar-based sensing system that estimates the coordinates for shorelines based on image-processing techniques. The proposed system provides shore estimations without appreciable loss of resolution and avoids the costs associated with bathymetries and/or satellite images. The system is comprised of a commercial radar, a GPS, and a heading sensor, which communicates to a central node that georeferences the radar measurements and runs the image-processing algorithms. A dedicated FPGA-based unit is implemented to interface with the radar internal signaling to extract and deliver the radar information. In the central node, a novel mathematical model is proposed for georefencing radar measurements to WSG-84 coordinates. A seam-carving-like algorithm is applied over the estimated coordinates to create a shoreline based on a probability heat map. The system performance is validated using official geographical information, showing that a continuous shoreline can be generated with a CEP of up to 6 m without incurring elevated costs.<hr/>Resumen Este trabajo propone un sistema de detección basado en radar para calcular las orillas de un rio usando procesamiento de imágenes. El sistema estima orillas sin pérdida apreciable en resolución evitando costos asociados con batimetrías y/o imágenes satelitales. El sistema está compuesto por un radar comercial, un GPS, y un sensor de rumbo que se comunican a un nodo central que georrefencia las mediciones del radar y ejecuta los algoritmos de procesamiento de imágenes. El hardware se basa en un FPGA para interactuar con la señalización interna del radar y extraer la información requerida. El nodo central implementa un novedoso modelo para georreferenciar las mediciones en coordenadas WSG-84. Posteriormente, un algoritmo de tipo “seam-carving” se aplica sobre las coordenadas estimadas para crear las orillas basándose en la probabilidad de la medición. El sistema se valida usando información oficial, y los resultados muestran un ECP de hasta 6 m. <![CDATA[Arquitectura holónica de referencia para empresas de fabricación sostenibles distribuidas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100160&lng=es&nrm=iso&tlng=es Abstract The introduction of new operational requirements to manufacturing enterprises determines an emergent complexity in their life cycle, due to different aspects such as geographic distribution, volatility and incertainty of business, incorporating TIC and intelligent technology, adoption of "edge technologies" to scales macro, meso and micro and incorporation of sustainability requirements. In the present work, it has established a paradigmatic framework to conceive Enterprises under an Integrated Architecture, as provided by its complexity from the variety required for sustainability (S) integrating business objectives (Economic S.), natural environment (Ecological S.) and individuals, social groups and cultural environment (Social S.). For this, the Holonic paradigm is proposed as a framework for bio-psycho-social inspiration that enables the design of Holonic Enterprises and entities distributed in the range required by the environment.<hr/>Resumen La introducción de nuevos requerimientos operacionales a las empresas de fabricación determina una complejidad emergente en su ciclo de vida debida a distintos aspectos tales como: su distribución geográfica, volatilidad e incertidumbre de los negocios, incorporación de TIC y tecnología inteligente, adopción de “tecnologías de borde” a escalas macro, meso y micro e incorporación de requerimientos de sostenibilidad. En el presente trabajo, se ha establecido un marco paradigmático que permita concebir Empresas bajo una Arquitectura Integrada, que contemple su complejidad desde la variedad requerida para la sostenibilidad (S), integrando los objetivos del negocio (S. Económica), el medioambiente natural (S. Ecológica) y las personas, grupos sociales y el medio cultural (S. Social). Para ello, se plantea el paradigma Holónico como un marco de inspiración bio-psico-social que posibilita la concepción de empresas como entidades Holónicas distribuidas de la variedad requerida por el entorno. <![CDATA[Hacia un marco de referencia para la generación de ventajas competitivas sostenibles en los Sistemas Integrados de Transporte Público -SITP en Colombia. Aporte de las capacidades dinámicas de innovación]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100169&lng=es&nrm=iso&tlng=es Abstract Dynamic capabilities of innovation in an organization are seen as necessary to the exploitation of organizational resources towards obtaining sustainable competitive advantages through innovation processes therein can overtake. This article presents a review of the literature to highlight that the number of studies proposed frameworks or methodologies that enable organizational assessment of this potential, are limited. The purpose of this article is to help in reducing this deficiency by proposing a framework of strategic evaluation based on the dynamic capabilities of innovation applicable to the IPTS of Colombia, and at the same time allows the use of available resources in the organization, details of which are presented in the last paragraph of the paper.<hr/>Resumen Las capacidades dinámicas de innovación en una organización son entendidas como necesarias para lograr el aprovechamiento de los recursos de la organización en pro de la obtención de ventajas competitivas sostenibles por medio de los procesos de innovación que en ella se pueden adelantar. Este artículo presenta una revisión de la literatura para resaltar que el número de estudios que proponen marcos o metodologías de evaluación organizacional que permitan este aprovechamiento, son limitados. El propósito de este artículo es contribuir en la reducción de esta falencia, al proponer un marco de evaluación estratégico basado en las capacidades dinámicas de innovación aplicable a los SITP de Colombia que permita el aprovechamiento de los recursos disponibles en esta organización, cuyo detalle se presenta en el último apartado del escrito. <![CDATA[Hacia un sistema de detección automática de señales del volcán Cotopaxi]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100176&lng=es&nrm=iso&tlng=es Abstract Currently, Cotopaxi volcano has increased its seismic activity. Efficient and reliable tools are required for volcano monitoring, and early and effective emergency alerts are necessary. This article presents a supervised classification-based detection of seismic-volcanic and non-volcanic events recorded during 2010. Our algorithm use four features acquired using energy of approximation and detail coefficients of the wavelet decomposition analyzed with Daubechies and Symlet families. The classification of events was performed by the algorithm of decision trees with embedded techniques: cross-validation and pruning for reduction in the number features. The best results are obtained by application of the mother wavelet Symlet with accuracy of 99% and precision of 98%.<hr/>Resumen Actualmente el Volcán Cotopaxi ha experimentado un incremento progresivo en su actividad sísmica, por lo que los especialistas requieren herramientas de alta eficiencia y confiabilidad para la monitorización volcánica. Este artículo presenta una detección basada en clasificación supervisada de los eventos sismo-volcánicos y no volcánicos registrados durante el año 2010. Nuestro algoritmo emplea cuatro características adquiridas por medio de la energía de los coeficientes de aproximación y detalle de la descomposición wavelet analizados con las familias Daubechies y Symlet. La clasificación de eventos fue realizada con el algoritmo de árboles de decisión empleando técnicas embebidas: validación cruzada y podamiento para una reducción del número de características. Los mejores resultados son obtenidos con la aplicación de la wavelet madre Symlet con una exactitud del 99% y una precisión de 98%. <![CDATA[Evaluación de técnicas de deshidratación de etanol aplicando la simulación]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100185&lng=es&nrm=iso&tlng=es Resumen Se evaluaron tres técnicas de deshidratación de etanol: la destilación azeotrópica con benceno, la pervaporación y la adsorción con tamices moleculares. Para la simulación de las técnicas se utilizó el simulador de procesos HYSYS v3.2 y para su comparación se estableció un mismo flujo molar de etanol en la mezcla etanol-agua de 216,5 kmol/h. En todos los casos se obtuvo una composición molar de etanol anhidro mayor de 99,7%. Se determinó la influencia de los parámetros de operación en la eficiencia de las tecnologías simuladas analizando tres casos de estudios. Se analizaron los perfiles de temperatura, flujos molares de líquido y vapor y las composiciones en las columnas presentes en cada proceso. Según la evaluación económica de las técnicas, todas las alternativas analizadas son económicamente ventajosas y en todas se logran ganancias netas, pero los mayores beneficios se obtienen en la adsorción con tamices moleculares al reportar la mayor tasa de rendimiento actualizada.<hr/>Abstract Three ethanol dehydration techniques were studied: azeotropic distillation with benzene, pervaporation and adsorption with molecular sieves. Each technique was simulated with HYSYS v3.2 process simulator. In order to compare, the same ethanol molar flow was established for ethanol-water mixture (216.5 kmol/h). Ethanol molar composition was higher than 99.7% for all technologies. Slightly lower composition was obtained for the extractive distillation. The influence of operating parameters on the efficiency of simulated technologies was determined by analyzing three case studies. Temperature, molar flows of liquid and vapor and composition profiles through the columns were analyzed for each process. According to economic evaluation techniques, all the alternatives are economically advantageous because of net profits. The greatest benefits are obtained for adsorption with molecular sieves because of its highest relative net present value. <![CDATA[Una comparación de algoritmos basados en trayectoria granular para el problema de localización y ruteo con flota heterogénea (LRPH)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100193&lng=es&nrm=iso&tlng=es Abstract We consider the Location-Routing Problem with Heterogeneous Fleet (LRPH) in which the goal is to determine the depots to be opened, the customers to be assigned to each open depot, and the corresponding routes fulfilling the demand of the customers and by considering a heterogeneous fleet. We propose a comparison of granular approaches of Simulated Annealing (GSA), of Variable Neighborhood Search (GVNS) and of a probabilistic Tabu Search (pGTS) for the LRPH. Thus, the proposed approaches consider a subset of the search space in which non-favorable movements are discarded regarding a granularity factor. The proposed algorithms are experimentally compared for the solution of the LRPH, by taking into account the CPU time and the quality of the solutions obtained on the instances adapted from the literature. The computational results show that algorithm GSA is able to obtain high quality solutions within short CPU times, improving the results obtained by the other proposed approaches.<hr/>Resumen Nosotros consideramos el problema de localización y ruteo de vehículos con flota heterogénea (LRPH) en el cual la meta es determinar los depósitos a ser abiertos, los clientes asignados a cada deposito, y las rutas que satisfagan la demanda de los clientes considerando una flota heterogénea. Nosotros proponemos una comparación de algoritmos granulares de Recocido Simulado (GSA), Búsqueda de Vecindario Variable (GVNS) y Tabú Search probabilístico (pGTS) para el LRPH. De esta manera, los algoritmos propuestos consideran un subconjunto del espacio en el cual los movimientos menos favorables son descartados según un factor de granularidad. Los algoritmos propuestos son comparados experimentalmente para la solución del LRPH, considerando el tiempo de CPU y la calidad de la solución obtenida en instancias adaptadas de la literatura. Los resultados computacionales muestran que el algoritmos GSA es capaz de obtener buenas soluciones en tiempos computacionales reducidos, mejorando los resultados obtenidos por los otros algoritmos propuestos. <![CDATA[Efectos de la geometría del hombro de la herramienta sobre las propiedades mecánicas de juntas soldadas por fricción-agitación de aleación de aluminio AA1100]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100202&lng=es&nrm=iso&tlng=es Abstract In this work were studied the effects of shoulder geometry of tool on microstructure evolution and mechanical properties of friction stir welded joints of AA1100 aluminum alloy using a milling machine. Three designs of shoulder geometry were evaluated with the aim to induce different distributions of thermal cycles in welding regions. Thermal cycles were measured using thermocouples and a data system acquisition. A microstructural characterization and crystallographic analysis of the welded regions were carried out using optical, scanning electron microscopy, and electron backscattering diffraction. The mechanical properties were measured by transverse tension, guided bend and hardness tests. The weldability behavior was established based on the experimental data. Results showed that the features shoulder tools produced an important effect on the thermal cycles, generating a plasticized wide region and biggest grain size in stir zone when compared with flat shoulder tool.<hr/>Resumen En este trabajo se estudiaron los efectos de la geometría del hombro de la herramienta en la evolución de la microestructura y las propiedades mecánicas de juntas soldadas de aleación de aluminio AA1100 obtenidos por fricción-agitación usando una máquina fresadora. Tres diseños de hombros se evaluaron con el objetivo de inducir distribuciones diferentes de ciclos térmicos en las regiones de soldadura. Los ciclos térmicos se midieron utilizando termopares y un sistema de adquisición de datos. Caracterización microestructural y análisis cristalográfico de las regiones soldadas se hicieron usando, microscopía óptica y electrónica de barrido, además de difracción de electrones retrodispersados. Las propiedades mecánicas se determinaron por ensayos de tracción, doblez guiado y pruebas de dureza. El comportamiento de la soldabilidad se estableció con base en datos experimentales. Los resultados mostraron que las herramientas con hombro configurado tienen un efecto importante en los ciclos térmicos, generando una amplia región plastificada y el mayor tamaño de grano en la zona de agitación en comparación con la herramienta de hombro plano. <![CDATA[Una comparativa entre redes neuronales artificiales y métodos clásicos para la predicción de la movilidad entre zonas de transporte. Aplicación práctica en el Campo de Gibraltar, España]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100209&lng=es&nrm=iso&tlng=es Resumen Los problemas de tráfico son cada vez más frecuentes debido al gran desarrollo tecnológico de la humanidad siendo, además, esencial su control para optimizar la infraestructura y el transporte público. Para lograr este objetivo, es necesario hacer una estimación de la demanda de los viajeros. Un método alternativo basado en redes neuronales artificiales (RNAs) se analiza en este trabajo, en comparación con las técnicas de predicción tradicionales. El objetivo es obtener un procedimiento de estimación usando variables de entrada sencillas y económicas, que son fáciles de encontrar. A diferencia de los modelos tradicionales, el modelo alternativo funciona mejor con los datos de entrada utilizados, ajustando mejor los resultados esperados. Los resultados son altamente prometedores y por tanto se demuestra la capacidad de las redes neuronales artificiales para realizar una estimación de la movilidad entre zonas.<hr/>Abstract Traffic issues are more common every day due to the great technological development of humanity. Therefore, the control is essential to optimize infrastructure and public transport. To achieve this goal, it is necessary to make an estimate of the demand of the mobility. An alternative method, based on Artificial Neural Networks (ANNs), has been analyzed in this work comparing to traditional prediction techniques. The aim is to obtain an estimation procedure using simple, economical input variables which are easy to find. Unlike traditional models. These new models are able to perform a better fitting of input-output mapping. The results are encouraging and therefore the ability of ANNs is shown to estimate mobility between zones. <![CDATA[Seguimiento de peatones utilizando campos probabilísticos y un espacio de descriptores dinámicos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100217&lng=es&nrm=iso&tlng=es Abstract Retrieving useful information from video sequences, such as the dynamics of pedestrians, and other moving objects on a video sequence, leads to further knowledge of what is happening on a scene. In this paper, a Target Framework associates each person with an autonomous entity, modeling its trajectory and speed by using a state machine. The particularity of our methodology is the use of a Movement Feature Space (MFS) to generate descriptors for classifiers and trackers. This approach is applied to two public sequences (PETS2009 and TownCentre). The results of this tracking outperform other algorithms reported in the literature, which have, however, a higher computational complexity.<hr/>Resumen Recuperar información de secuencias de video, como la dinámica de peatones u otros objetos en movimiento en la escena, representa una herramienta indispensable para interpretar que está ocurriendo en la escena. Este artículo propone el uso de una Arquitectura basada en Targets, que asocian a cada persona una entidad autónoma y modeliza su dinámica con una máquina de estados. Nuestra metodología utiliza una familia de descriptores calculados en el Movement Feature Space (MFS) para realizar la detección y seguimiento de las personas. Esta arquitectura fue evaluada usando dos bases de datos públicas (PETS2009 y TownCentre), y comparándola con algoritmos de la literatura, arrojó mejores resultados, aun cuando estos algoritmos poseen una mayor complejidad computacional. <![CDATA[Un estudio de las implicaciones para la salud del uso del teléfono móvil en niños de 8-14]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100228&lng=es&nrm=iso&tlng=es Abstract Mobile phone use is increasing worldwide. The physical, cognitive and social health implications of mobile phone use in young users are considered. A survey of 168 children aged 8-11 and 136 children aged 11-14 is reported. Participants completed questionnaires about their mobile phone use with follow-up interviews to elicit more in depth information about reasons for using mobile phones. Findings suggest users are at risk of muscular skeletal problems from mobile phone use, radio frequency damage from storage of the phone on the body, particularly when the person is ‘on the move’, and impaired performance from multi-tasking and sleep disturbance. Since long term or heavy usage of mobile phones is an unknown factor, caution is needed with regard to the risks associated with these findings.<hr/>Resumen El uso de teléfonos móviles está aumentando en todo el mundo. Se consideran aquí las implicaciones de esto para la salud física, cognitiva y social en usuarios jóvenes. Se presenta un estudio de 168 niños de edades 8-11 y 136 niños de edades 11-14. Los participantes completaron cuestionarios sobre su uso de teléfonos móviles y después fueron entrevistados para obtener más y profunda información acerca de las razones de uso. Los resultados sugieren que los usuarios de teléfonos móviles corren el riesgo de problemas musculares esqueléticos, daño de radiofrecuencia por mantener el teléfono sobre el cuerpo, sobre todo cuando la persona está "sobre la marcha", perjudicar su rendimiento en la multitarea y trastornos del sueño. Dado que uso a largo plazo o excesivo de los teléfonos móviles es un factor desconocido, es necesario tener precaución con respecto a los riesgos asociados con estos hallazgos. <![CDATA[La cuestión de la comodidad térmica de la ropa médica en la sala de operaciones]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100234&lng=es&nrm=iso&tlng=es Abstract Medical clothes have the primary function of protection. However this function must be correlated with a good comfort experience to the user. The comfort is a very important issue, since professionals are exposed to stress situations that can influence, negatively, their performance work. More specific, thermal comfort plays a crucial role for the best performance of OR medical clothing, involving heat regulation and mass transfer between a clothed body and the environment, once clothing is the interface between body and environment. The aim of this work was to study the behavior of thermal properties of surgical scrub and clean air suits A comparison was made between this two types of clothing using Alambeta equipment, for stationary thermal properties and a Thermal Manikin, to allow the analysis of dynamic thermal properties, such as heat flux and thermal insulation. It was found that clothing thermal insulation is statistically different, showing that the difference between suits may will perceived by the user.<hr/>Resumen La ropa médica tiene la función principal de protección. Sin embargo, esta función debe estar correlacionada con una buena experiencia de comodidad para el usuario. La comodidad es un tema muy importante, ya que los profesionales están expuestos a situaciones de estrés que pueden influir, negativamente, en su desempeño laboral. Más específico, el confort térmico juega un papel crucial para el mejor rendimiento de la ropa médica usado en la sala de operaciones, que implica la regulación del calor y la transferencia de masa entre un cuerpo vestido y el medio ambiente, una vez que la ropa es la interfaz entre el cuerpo y el medio ambiente. El objetivo de este trabajo fue estudiar el comportamiento de propiedades térmicas de batas quirúrgicos y trajes de aire limpio usados en la sala de operaciones. Se realizó una comparación entre estos dos tipos de prendas con equipos Alambeta, para propiedades térmicas estacionarias y un Maniquí Térmico, para propriedades dinâmicas, como el flujo de calor y el aislamiento térmico. Se encontró que el aislamiento térmico de las prendas es estadísticamente diferente, mostrando que la diferencia entre los trajes puede ser percibida por el usuario. <![CDATA[Obtención del compuesto Mg<sub>2</sub>Ni<sub>0.5</sub>Co<sub>0.5</sub> mediante aleado mecánico y estudio de su comportamiento frente al proceso de hidruración]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100240&lng=es&nrm=iso&tlng=es Resumen Este trabajo presenta la evolución microestructural del compuesto Mg2Ni0.5Co0.5 obtenido mediante aleado mecánico y el estudio de sus propiedades de hidruración. Los polvos elementales de Mg, Ni y Co con una relación atómica 2:0.5:0.5 se alearon mecánicamente en un molino de alta energía Spex 8000D por 36 h (muestra amorfa) y posteriormente se realizó un tratamiento térmico a 673 K por 15 min (muestra nanocristalina). La caracterización de las muestras se realizó mediante difracción de rayos-X. El proceso de hidruración fue realizado por técnica volumétrica Sievert a 363 K y una presión de H2 de 2 MPa. El proceso de desorción se evaluó por calorimetría diferencial de barrido. Basados en los resultados podemos concluir que la estructura amorfa absorbe más hidrógeno, alcanzando un máximo de 3.6% en peso de H. Los eventos presentes en el proceso de desorción depende de si la aleación es amorfa o nanocristalina.<hr/>Abstract This work presents the microstructural evolution of mechanically alloyed Mg2Ni0.5Co0.5 and a study of its hydriding properties. Mg, Ni, and Co elemental powders (atomic ratios of 2:0.5:0.5, respectively) were mechanically alloyed in a Spex 8000D high-energy mill for 36 h (amorphous sample) and subsequently submitted to a thermal treatment at 673 K for 15 min (nanocrystalline sample). The characterizations of the samples were performed with X-ray diffraction. A Sievert-type volumetric hydriding process was done at 363 K and with hydrogen pressure of 2 MPa. Desorption process was evaluated through differential scanning calorimetry. Based on the obtained results, it is possible to conclude that the amorphous structure absorbs more hydrogen, reaching a maximum of 3.6 wt. % H. Desorption process events depend on amorphous or nanocrystalline states. <![CDATA[Uso de la estadística de orden en la predicción de la probabilidad de falla de fundaciones con pilotes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100247&lng=es&nrm=iso&tlng=es Abstract The study of pile foundation reliability and safety is based on the analysis of the probabilistic moments, average and coefficient of variation that are associated with the resistant surface. This surface imposes the condition that there is a finite population represented by the isolated elements of the foundation. This work presents an analysis of a statistical adjustment of the sample when estimating the population’s parameters and using the order statistic concepts. The resistance values and the analyzed foundations that were solicited were based on data published in the technical literature in which the resistance variable was measured from load tests. The number of tests in situ concludes, specifically that, for the diversity of the analyzed foundations, the order statistic can be a sufficiently useful tool to estimate the failure probability of pile foundations in cases in which the number of load tests are smaller.<hr/>Resumen El estudio de la seguridad y confiabilidad de una fundación con pilotes se basa en el análisis de los momentos probabilísticos, media y coeficiente de variación asociados a la superficie resistente, donde se impone la existencia de una población finita representada por elementos aislados de la fundación. Este trabajo presenta un análisis de la adaptación de la estadística para estimar los parámetros poblacionales, usando los conceptos de la estadística de orden. Los valores de resistencia y solicitación de las fundaciones analizadas se basaron en los datos experimentales publicados en la literatura técnica, donde la variable resistencia fue medida por medio de pruebas de carga. El número de ensayos de campo indica especialmente que, para la diversidad de las fundaciones analizadas, la estadística de orden puede ser una herramienta bastante útil para estimar la probabilidad de falla de fundaciones con pilotes, cuando el número de pruebas de carga es pequeño. <![CDATA[Obtención de pulpa de celulosa a partir de residuos de Agave salmiana B. Otto ex Salm. Optimización]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100253&lng=es&nrm=iso&tlng=es Abstract The agave is a source nontimber species, which can be used for the extraction of cellulose. Work has been done reporting papermaking fibers from six species of agaves: A. lechuguilla, A. angustifolia, A. tequilana, A. American., A. mapisaga and A. salmiana using different methods for extraction fiber. Their results indicate that A. mapisaga and A. salmiana were the species that showed better characteristics for the possible development of paper. In this paper we sought to create a new value added to the waste leaves Agaváceas agribusiness processing of pulque, from A. salmiana B. Otto ex Salm. Pulp was obtained by two methods: alkaline pulping method known as Organosolv. Characteristics and efficiencies of the processes under an optimization study were evaluated. As a result, it is concluded that optimal and reproducible for cellulose pulp by alkaline pulping A.salmiana conditions were: [NaOH] 12%; 24 hours; [Na2CO3] 2.5% and [Na2SO4] 0.2%. In contrast to the acid pulping optimum conditions they were: 60% H2O; 6 hours; [CH3COOH] and 80% [HCl] 0.5%. On the basis of response analysis "more better performance" in the ANOVA, we found that for the alkaline pulping, the factor having the greatest impact on the process is time, and the factor that has lower incidence [Na2CO3]; on the other hand, for acid pulping the factor having the greatest contribution it is [CH3COOH] and the lowest incidence is the stirring rate. In the alkaline pulping confirmatory experiments yield 39.69% cellulose pulp A.salmiana was obtained whereas for organosolv pulping yield 71.57% was obtained.<hr/>Resumen El agave es una especie no maderable, que puede ser utilizada para la extracción de celulosa. Se han realizado trabajos que reportan la elaboración de papel a partir de fibras de seis especies de agaves: A. lechuguilla, A. Angustifolia, A. tequilana, A. americana, A. salmiana y A. mapisaga, utilizando diferentes métodos para la extracción de fibras. Sus resultados indican que A. salmiana y A. mapisaga fueron las especies que presentaron mejores características para la posible elaboración de papel. En este trabajo se buscó crear un nuevo valor agregado a las hojas residuos de agavaceas de la agroindustria de elaboración del pulque, a partir de A. salmiana B. Otto ex Salm. Con este propósito se obtuvo pulpa de celulosa por dos métodos: pulpeo alcalino y el método conocido como Organosolv. Se evaluaron las características y eficacias de los procesos bajo un estudio de optimización. Como resultado, se concluye que las condiciones óptimas y reproducibles para obtener pulpa de celulosa de Agave salmiana mediante pulpeo alcalino fueron: [NaOH] 12%; 24 horas; [Na2CO3] 2.5% y [Na2SO4] 0.2%. En contraste para el pulpeo ácido las condiciones óptimas fueron: H2O 60%; 6 horas; [CH3COOH] 80% y [HCl] 0.5%. Sobre la base del análisis de respuesta “mayor rendimiento mejor” en el ANOVA, se encontró que para el pulpeo alcalino, el factor que tiene mayor incidencia en el proceso es el tiempo, y el factor que tiene menor incidencia es [Na2CO3]; por otro lado, para el pulpeo ácido el factor que tiene la mayor contribución es [CH3COOH] y el de menor incidencia es la velocidad de agitación. En los experimentos confirmatorios de pulpeo alcalino se obtuvo un rendimiento de 39.69% de pulpa de celulosa de Agave salmiana, mientras que para pulpeo Organosolv se obtuvo un rendimiento de 71.57%. <![CDATA[Recubrimientos de dioxido de titanio sobre aleaciones de magnesio para biomateriales: Una revisión]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100261&lng=es&nrm=iso&tlng=es Abstract Magnesium and its alloys are used for biomaterials in orthopedic applications. Such alloys are still under development, and they are used due to their biocompatibility and mechanical (bone-like) properties that make them suitable to be used as biomaterials. Magnesium has potential to be used in biodegradable implants because of its capacity to support tissue regeneration processes. Therefore, multiple strategies have been developed to enhance magnesium properties. Coatings on magnesium alloys have been used to improve the cytocompatibility and corrosion resistance of magnesium. Particularly, titanium dioxide can be used as coating on magnesium to help regulating degradation rate and overcome some issues when magnesium is inserted into the human body. Accordingly, this paper is a critical review to consolidate the available literature about titanium dioxide coatings on magnesium alloys for potential use as biomaterials. The work focuses on coatings obtained by the sol-gel route as a promising technique for biomedical applications.<hr/>Resumen El magnesio y sus aleaciones, que aún se encuentran en desarrollo, se usan en aplicaciones ortopédicas debido a su biocompatibilidad y propiedades mecánicas (similares al hueso), que los hacen adecuados para aplicaciones en biomateriales. El magnesio tiene potencial para ser usado en implantes biodegradables dada su capacidad de soportar los procesos de regeneración de tejidos. En consecuencia, se han desarrollado varias estrategias para mejorar las propiedades del magnesio. Los recubrimientos sobre magnesio se emplean para mejorar su citocompatibilidad y resistencia a la corrosión. Específicamente, el dióxido de titanio se puede usar como recubrimiento protector sobre el magnesio, con el fin de ayudar a regular la velocidad de degradación y superar algunos problemas que se encuentran cuando el magnesio es implantado en el cuerpo. Por tanto, en este artículo se realizó una revisión crítica para consolidar la literatura disponible acerca de recubrimientos de dióxido de titanio sobre aleaciones de magnesio para potenciales aplicaciones en biomateriales. En este documento se hace énfasis en los recubrimientos obtenidos por medio de la de la ruta sol-gel como técnica prometedora para aplicaciones biomédicas. <![CDATA[Plataformas de intercambio con ruteo de vehículos. Una revisión del estado del arte]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100271&lng=es&nrm=iso&tlng=es Abstract This article reviews the state of the art for the last ten years about the literature related to Cross-Docking. The Cross-Docking systems emerge as an alternative to reduce logistics costs and customer response time in some processes such as warehousing and material handling, times by reducing storage and picking, on the docks of inbound and outbound of vehicles. In the first part, the concept of Cross-Docking is developed, also its operating performance and classification. In the second part, a report on the most relevant works is done. Subsequently, it delves into the issue of vehicle routing and Cross-Docking with emphasis on methods of solution, since it is a combinatorial optimization problem classified as NP-hard. The document ends with the conclusions and discussion.<hr/>Resumen Este artículo presenta una revisión al estado del arte durante los últimos diez años, de la literatura relacionada con las plataformas de intercambio logísticas, denominadas Cross-Docking. Este tipo de sistemas surgen como alternativa para reducir el costo logístico y el tiempo de respuesta al cliente. El objetivo consiste en simplificar algunos procesos tales como almacenamiento y manejo de materiales, a partir de la reducción de períodos de bodegaje y realización de surtida de materiales en los muelles de ingreso y salida de mercancía. En la primera parte, se desarrolla el concepto, su funcionamiento operativo y clasificación. En la segunda parte, se realiza un reporte de los trabajos más relevantes acerca de esta técnica. Posteriormente, se profundiza en este tema y el ruteo de vehículos simultáneos, haciendo énfasis en los métodos de solución, puesto que se trata de un problema de optimización combinatoria, clasificado como de alta complejidad computacional. Al final, se presentan conclusiones y la discusión. <![CDATA[Las tecnologías de la información en América Latina, su incidencia en la productividad: Un análisis comparado con países desarrollados]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100281&lng=es&nrm=iso&tlng=es Abstract The advancement of science in the global context in the last half century has been attributed to high levels of information available online, which were transformed in knowledge, innovation and productivity. Thus, the availability and use of information and communications technology (ICT) has been growing and becoming complex in industrialized countries. This work aimed to perform a comparative analysis of the use of ICT among six countries in Latin America and seven developed countries. Methodologically, the study carried out an analysis of the state of the art of the use of ICT in Latin America, and a theoretical and statistical verification. The results showed strong gaps in technology, knowledge, productivity and innovation in the region. The article concluded and shown as a first evidence that ICT was a causal reason for the low level of productivity and quality of life in Latin America.<hr/>Resumen El avance de la ciencia en el contexto global en el último medio siglo, se ha atribuido a los altos niveles de información disponible en Internet, transformable en conocimiento, innovación y productividad. De manera que, la disponibilidad y uso de las tecnologías de la información y la comunicación (TIC) en los países industrializados se ha mostrado creciente y de complejidad. El presente trabajo tuvo como propósito realizar un análisis comparado del uso de las TIC entre seis países de América Latina y siete países desarrollados. Metodológicamente, el estudio realizó un análisis del estado del arte del uso de las TIC en América Latina, y una contrastación teórica y estadística. Los resultados muestran las fuertes brechas tecnológicas, de conocimiento, productividad e innovación en la región. El artículo concluye y señala como primera evidencia que las TIC son una razón causal del bajo nivel de productividad y calidad de vida en América Latina. <![CDATA[Significado petrogenético de las eclogitas del Complejo Arquía en el suroeste de Pijao, Cordillera Central (Colombia Andes)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100291&lng=es&nrm=iso&tlng=es Abstract Eclogites discovered on southwestern Pijao, Central Cordillera (Colombia Andes), are enriched in almandine (Xalm = 0.50-0.58; XFe = 0.69-0.83) and grossular (Xgrs = 0.25-0.30), with lesser amounts of pyrope (Xprp = 0.12-0.23), and relatively low spessartine (Xsps = 0.01-0.05), and the omphacite the contents of jadeite, acmite and augite in the analyzed clinopyroxene are 7.00, 3.19 and 89.80 mol%; XMg= 0.82. The eclogites underwent a clockwise PT trajectory with a post-Ppeak (at 10.5 kbar and 535°C) slight increase of temperature to a maximum (Tpeak) about 8.5 kbar and 575°C and a subsequent cooling during decompression to about 4.5 kbar and 530°C. Geochemical data indicate protoliths that correspond to basalts from normal type mid-ocean ridges (NMORB). All these features suggest that ophiolite remnants are involved in the subduction and final architecture of the Arquía Complex. The progressive convergence led to the formation of the eclogite facies assemblages at the maximum depth in the continental crust. The eclogites reported in this study represent an excellent example of high-pressure metamorphic rocks in orogenic belts, very useful to understanding plate subduction and continent collision processes.<hr/>Resumen Las eclogitas descubiertas en el suroeste de Pijao, Cordillera Central (Colombia Andes), son ricas en almandino (Xalm = 0.50-0.58; XFe = 0.69-0.83) y grosularia (Xgrs = 0.25-0.30), con cantidades menores de piropo (Xprp = 0.12-0.23) y relativamente baja espesartina (Xsps = 0.01-0.05), y la onfacita presenta contenidos de jadeíta, acmita y augita en el clinopiroxeno analizado de 7,00, 3,19 y 89,80% en moles; XMg= 0.82. Las eclogitas sufrieron una trayectoria PT en sentido horario con un ligero aumento de temperatura posterior al Ppeak (a 10.5 kbar y 535°C) a un máximo (Tpeak) a 8.5 kbar and 575°C y un posterior enfriamiento durante la descompresión a 4.5 kbar and 530°C. Los datos geoquímicos indican protolitos que corresponden a basaltos de tipo dorsales oceánicas normales (NMORB). Todas estas características sugieren que los remanentes ofiolíticos están involucrados en la subducción y arquitectura final del Complejo Arquía. La progresiva convergencia condujo a la formación de las asociaciones de la facies eclogites a la máxima profundidad en la corteza continental. Las eclogitas reportadas en este estudio representan un excelente ejemplo de rocas metamórficas de alta presión en cinturones orogénicos, muy útil para la comprensión de subducción de placas y los procesos de colisión de los continentes. <![CDATA[Inactivación de <em>Bacillus licheniformis</em> en extracto líquido de café por calentamiento por microondas en hornos domésticos y sensor de fibra óptica para mediciones precisas de temperatura]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100302&lng=es&nrm=iso&tlng=es Abstract This study evaluates the inactivation of Bacillus licheniformis in liquid coffee extract using heating microwaves. To achieve accurate measurements of temperatures, an optical fiber sensor was developed and calibrated for real-time and in situ measurements of the extract. Using a central composite design, the effects of the processing time, power levels and sample volume were evaluated together with the concentration of the soluble solids of the liquid coffee extract and the position of the sample in the microwave cavity. In addition, the physicochemical and sensory properties of the product were evaluated. The results indicate that the greatest reduction of the microorganism occurred when the processing time was 19 seconds at a power level of 6 using a sample volume of 11 mL and that the highest biological destruction occurs when the sample is placed in the center of the microwave cavity.<hr/>Resumen En este estudio se evalúa la inactivación de Bacillus licheniformis en extractos líquidos de café usando calentamiento por microondas. Para lograr medidas precisas de temperatura, se desarrolló y calibró un sensor de fibra óptica para medir en tiempo real e in situ la temperatura del extracto. Usando un diseño central compuesto, se evaluaron diferentes condiciones de tiempo de proceso, niveles de potencia y volumen de muestra; además, fue evaluado la concentración de solidos solubles del extracto de café y la posición de la muestra en la cavidad del microondas. Adicionalmente, se evalúan las propiedades fisicoquímicas y sensoriales del producto. Los resultados muestran que la mayor reducción del microorganismo ocurre con un tiempo de proceso de 19 segundos, nivel de potencia 6, volumen de muestra 11 mL y que la más alta destrucción biológica ocurre en el centro del horno. <![CDATA[Oportunidades de evaluación de eficiencia energética en el transporte terrestre en Ecuador]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100309&lng=es&nrm=iso&tlng=es Abstract Transport facilitates both economic and social development across the globe. Therefore, mass transportation has increased over time, and fossil fuels have been used discriminately to fulfill the demand in the transportation sector. Environmental and social factors need to be addressed, along with the demand for energy, in Ecuador. In 2012, the demand was equivalent to 46 million Barrels of Oil Equivalent BOE, 37% of which was consumed by heavy duty vehicles (HDV) and 32% was consumed by light duty vehicles (LDV). This demand, in combination with an outdated and inefficient vehicle fleet and untargeted fuel subsidies, resulted in excessive consumption. The following research has focused on analyzing transport in Ecuador to identify wasteful consumption patterns and resulting opportunities for improving energy efficiency and environmental stewardship.<hr/>Resumen El transporte es vital para el desarrollo social y económico de las sociedades alrededor del mundo. Por lo tanto, se tiene que considerar que el transporte masivo ha incrementado a través del tiempo con el consumo discriminado de combustibles fósiles que han servido para suplir la demanda en el transporte. Existen impactos sociales y medio ambientales que tienen que ser evaluados junto con la demanda de energía en Ecuador. La misma que en 2012 equivalió a 46 millones de BEP, donde 73% fue consumida por vehículos de carga pesada y 32% por vehículos de carga liviana. Este patrón de consumo combinado con una flota de vehículos ineficiente y un subsidio discriminado resulto en un derroche excesivo de energía. La investigación se enfoca en el análisis de la situación del transporte en Ecuador, para identificar el desperdicio de energía, el medio ambiente, y las oportunidades de eficiencia energética en este sector. <![CDATA[Metodología para determinar la cuadrícula de muestreo del suelo para la agricultura de precisión en un campo de café]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100316&lng=es&nrm=iso&tlng=es Abstract The objective of this study was to develop and propose a methodology to evaluate the quality of different sampling grids. In addition, it allows us to choose the sampling grid that better suits one or a set of variables. The structure and magnitude of the spatial dependence were characterized by semivariogram. It allowed us to apply validation techniques as a base to create an index for evaluating the grid quality, and to develop an indicator that points out the best sampling grid. To test the proposed methodology, an experiment was performed at the Brejão farm, in Brazil. We have developed and compared twenty sampling grids, which were applied to four soil variables sampled in georeferenced locations. An accuracy index (AI), a precision index (PI) and the optimum grid indicator (OGI) were developed and proposed, which allowed us to choose the best grid (grid 5) among the sampling grids.<hr/>Resumen El objetivo de este estudio fue desarrollar y proponer una metodología para evaluar la calidad de las diferentes cuadrículas de muestreo. Además, es posible elegir la cuadricula de muestreo que mejor se adapte a una o un conjunto de variables. La estructura y la magnitud de la dependencia espacial fueron caracterizadas por semivariograma. Esto nos permitió utilizar las técnicas de validación que funcionaron como base para crear una clasificación para evaluar la calidad de la cuadricula y para desarrollar un indicador que apunta la mejor cuadricula de muestreo. Un experimento fue realizado en la hacienda Brejão en Brasil, para probar la metodología propuesta. Hemos desarrollado y comparado veinte muestras que fueran aplicadas en cuatro variables de suelo muestreados en los puntos georeferenciados. Un índice de exactitude (AI), un índice de precisión (PI) y el indicador de cuadricula óptima (OGI), fueron desarrollados y propuestos lo que nos permitió elegir la mejor muestra cuadricula de muestreo (cuadricula 5) entre las cuadrículas de muestreo. <![CDATA[UAREI: Un modelo para la descripción formal y la representación visual de la gamificación de software]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100326&lng=es&nrm=iso&tlng=es Abstract The paper presents the UAREI (User-Action-Rule-Entities-Interface) model for formal specification of software gamification, and the UAREI visual modelling language for graphical representation of game mechanics. A case of study in gamification of the Trogon project management system is presented. The proposed model and visual language is compared against the Machinations gamification framework using visual complexity metrics, game simulation and qualitative comparison.<hr/>Resumen El artículo presenta el modelo UAREI (Usuario-Acción-Regla-Entidades-Interface) para la especificación formal de gamificacion software y el UAREI visual lenguaje de modelado para la representación gráfica de la mecánica del juego. Un estudio de caso en gamificacion del sistema de gestión de proyectos Trogon se presenta. El modelo y visual lenguaje propuesto se compara con las maquinaciones marco gamificacion utilizando métricas de complejidad visuales, juego de simulación y comparación cualitativa. <![CDATA[Análisis de factores sociales y su relación con el riesgo percibido en las compras a través de canales de comercio electrónico]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100335&lng=es&nrm=iso&tlng=es Abstract Many purchasing decisions have an associated level of risk deriving from the uncertain environment facing the buyer and the possible negative consequences of an online purchase. Through an empirical study, using a regression analysis of latent variables and the ordinary Partial Least Squares (PLS) optimization technique, a model that represents the relationship between customer orientation, social influence, reputation, privacy and how they affect the perceived risk, is proposed. The purpose of this is to enable companies to develop more effective methods of reducing this barrier and create strategies to increase purchases through e-commerce.<hr/>Resumen Gran parte de las decisiones de compra tienen asociado un nivel de riesgo procedente del ambiente incierto al que se enfrenta el comprador, así como de las posibles consecuencias negativas que puedan producirse. A través de un estudio empírico, y mediante un análisis de regresión de variables latentes por medio de la técnica de optimización de mínimos cuadrados ordinarios (PLS), se propone un modelo que represente las relaciones entre la orientación del cliente, la influencia social, la reputación, la privacidad y cómo estas afectan el riesgo percibido; esto con el fin de permitir a las empresas elaborar estrategias más efectivas para atenuar esta barrera y con ello, el aumento de las compras por canales de comercio electrónico. <![CDATA[Una solución numérica del problema de control de contaminación de aire en 3D]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100342&lng=es&nrm=iso&tlng=es Abstract This paper studies the minimization of the cost of an air pollution control problem in a three-dimensional region where there exists several sources of pollution. Since the control area has an infinite set of points, the proposed model was formulated using semi-infinite programming (SIP). The problem was solved by using a version of Volkov-Zavriev’s (1997) stochastic outer approximations method, which consists of an active search for relevant constraints based in quasi-optimal functions. The concentration of the contaminant at each point in the region is obtained from a Gaussian model. Three cases were analyzed taking into account the Colombian standard for sulfur dioxide. The hypothesis that polluting sources should not be established within cities was supported. Lastly, results indicate that solutions that cost the least allow the harmful effects caused by sources in a control area to be estimated.<hr/>Resumen Este trabajo estudia la minimización del costo del problema de control de contaminación del aire, en una región tridimensional donde existen varias fuentes de contaminación. Dado que el área de control tiene un conjunto infinito de puntos, el modelo propuesto ha sido formulado utilizando programación semi-infinita (SIP). El problema se resolvió utilizando una versión del método estocástico de aproximaciones externas creado por Volkov - Zavriev (1997), que consiste en una búsqueda activa de restricciones relevantes basada en funciones cuasi-óptimas. La concentración del contaminante en cada punto de la región se obtiene de un modelo gaussiano. Se analizaron tres casos teniendo en cuenta la norma colombiana para dióxido de azufre. La hipótesis de que fuentes contaminantes no se establezcan dentro de las ciudades fue apoyada. Por último, los resultados indican que las soluciones de mínimo costo permiten estimar los efectos perjudiciales causados por fuentes en una zona de control. <![CDATA[Variables representativas de mercadeo y comercialización para un modelo de gestión de la innovación]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100351&lng=es&nrm=iso&tlng=es Abstract This article aims to bond representative variables of marketing and trade activities as well as variables employed to structure and direct an innovation process to a management model. A general model that can be adapted to any industry in order to develop long term sustainability and economical well fair trough his impact product sells. This article presents variables in global context and innovations aspects. The investigation showed that the context variables that are held in control by the environment and are located into the core of the innovation management model exist as a primary feedback mechanism in order to establish an early review and properly readjust the organizations policy’s, often translated in a mayor adjustment of operation process, such changes pursue disruptive innovations in order to adapt the product to a new consumption pattern in order to achieve company’s sustainability.<hr/>Resumen Este artículo tiene como objetivo unir las variables representativas de las actividades de marketing y comerciales, con las variables empleadas para estructurar y dirigir un proceso de innovación como parte del modelo de gestión. Este es un modelo general que puede ser adaptado a cualquier industria con el fin de garantizar la sostenibilidad económica a largo plazo a través del impacto en las ventas del producto. Este artículo presenta las variables en un contexto global con aspectos de innovación. La investigación mostró que las variables de contexto están controladas por el medio ambiente y se encuentran en el núcleo del modelo de gestión de la innovación como un mecanismo de retroalimentación que permite establecer una revisión temprana y adecuada sobre la política de las organizaciones, lo cual se traduce en ajustes mayores en los procesos operativos; tales cambios promueven innovaciones disruptivas con el fin de adaptar el producto a un nuevo patrón de consumo con el fin de lograr la sostenibilidad de la empresa. <![CDATA[Modelo biobjetivo para el problema de localización de centros de auxilio y distribución de productos en situaciones de respuesta a desastres]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100356&lng=es&nrm=iso&tlng=es Abstract Consequences of natural disasters in recent years have shown the complexity of these situations. In disaster situations, the location of relief centers, the distribution of supplies and the fleet sizing are some of the most important decisions. In most cases the execution of this operations lead to contradictory objectives, mainly, logistic costs and unmet demand costs. On the one hand, minimize unmet demand implies higher logistics costs. On the other hand, minimize logistics costs without considering the unmet demand may lead with an inefficient attendance in the affected areas. In this paper, we propose a bi-objective stochastic programing model for the integrated problem of location-distribution and fleet sizing. We solve instances based on the mega disaster in the Mountain Region of Rio de Janeiro in 2011. We compare the solutions of a bi-objective model in respect to solutions of a mono-objective version, highlighting the advantages and disadvantages of each model.<hr/>Resumen Las consecuencias de los desastres naturales en los últimos años han evidenciado la complejidad de esos eventos. Entre las decisiones importantes en situaciones de desastres están la localización de centros de auxilio, la distribución de productos y el dimensionamiento de flota. La ejecución de estas operaciones puede implicar objetivos contradictorios, principalmente, costos logísticos y costos por demanda insatisfecha. Por un lado, minimizar la demanda insatisfecha lleva a mayores costos logísticos. Por otro lado, minimizar los costos logísticos sin considerar la demanda insatisfecha implica un atendimiento ineficaz en las áreas afectadas. En este artículo es desarrollado un modelo biobjetivo de programación estocástica para el problema integrado de localización-distribución y dimensionamiento de flota. Se solucionan instancias basadas en el megadesastre de la región Serrana de Rio de Janeiro en 2011. Las soluciones del modelo biobjetivo son comparadas con una versión mono-objetivo del mismo, resaltando las ventajas y desventajas de cada modelo. <![CDATA[Estudio de la pluma del río Atrato en un estuario en el trópico: Efectos del viento y del régimen de mareas en el Golfo de Urabá, Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100367&lng=es&nrm=iso&tlng=es Abstract This study focuses on the relative importance of the forcing agents of Atrato River plume as it propagates in a tropical estuary located in the Gulf of Uraba in the Colombian Caribbean Sea. Six campaigns of intensive field data collection were carried out from 2004 to 2007 to identify the main features of the plume and to calibrate and validate a numerical model. Field data and numerical models revealed high spatial and temporal plume variability according to the magnitudes of river discharges, tidal cycles, and wind stress. Atrato River discharge spreads over a considerable portion of the gulf, but only occupies the top 2 m of the surface layer. The tide modifies the position of the plume by inducing a horizontal migration of the salinity front during the day. Two principal modes of circulation in the gulf were identified under different wind conditions.<hr/>Resumen Este estudio se enfoca en la evaluación de la importancia de los diferentes forzamientos sobre la pluma del río Atrato y su propagación en un estuario localizado en el golfo de Uraba en el Caribe Colombiano. Se realizaron seis campañas de medición entre los años 2004 y 2007 para identificar las principales características de esta pluma y para la calibración y validación del modelo numérico. Datos de campo y resultados de un modelo numérico muestran que existe una alta variabilidad espacial y temporal en la pluma de acuerdo a la magnitud de la descarga del río, el ciclo de marea y el esfuerzo cortante inducido por el viento. La descarga del río Atrato se dispersa sobre una porción considerable del golfo de Uraba pero ocupa solamente una capa superficial de alrededor de 2 m. La marea modifica la posición de la pluma a lo largo del día, induciendo una migración horizontal en el frente salino. Se identificaron dos modos de circulación en el golfo de Uraba bajo diferentes condiciones de viento. <![CDATA[Aplicación de DEA en la selección del mercado internacional para la exportación de bienes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0012-73532017000100376&lng=es&nrm=iso&tlng=es Abstract This article proposes a methodology to support decision-making to select an international market. To do so, an output-oriented data envelopment analysis (DEA) model is used. This methodology takes into account multiple variables such as import tariffs, logistics costs, the ease of doing business, cultural gaps, the value of imports, GDP per capita, and logistics performance, among others, which are validated with a correlation analysis. The methodology is applied to frozen beef exported from Colombia, and it assesses the efficiency of possible destination countries. Finally, this study concludes that DEA provides easy to apply robust models identifying countries and regions that generate higher benefits to access international markets.<hr/>Resumen Este artículo propone una metodología para apoyar la toma de decisiones en la selección de mercados internacionales. Para esto, se utiliza un modelo de análisis envolvente de datos (DEA) orientado a salidas. La metodología utilizada tiene en cuenta múltiples variables como el arancel de importación, costos logísticos, facilidad de hacer negocios, diferencias culturales, valor de importaciones, PIB per cápita, desempeño logístico, entre otros, a los cuales se les aplica un análisis de correlación para su validación. Se aplica la metodología para la carne de res congelada exportada desde Colombia, y se evalúa la eficiencia de los posibles países destinos en los cuales podría comercializarse el producto. Se concluye que DEA ofrece modelos robustos y fáciles a aplicar para identificar los países y regiones que generan mayores beneficios en el acceso a mercados internacionales.