Scielo RSS <![CDATA[Revista Facultad de Ingeniería Universidad de Antioquia]]> http://www.scielo.org.co/rss.php?pid=0120-623020150004&lang=en vol. num. 77 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<B>EDITORIAL</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400001&lng=en&nrm=iso&tlng=en <![CDATA[<B>Barriers for innovation detected in 400 colombian businesses, based on the innovation ''U'' coefficient methodology</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400002&lng=en&nrm=iso&tlng=en The barriers for innovation have been studied for the past 40 years. However, in most of these studies, the subject has been examined in a qualitative way. Consequently, certain tools are required to measure the barriers of innovation inside the organizations. This time, the results of the barriers of an innovation tool is presented; this tool has been developed by researchers from Universidad Pontificia Bolivariana, which was applied to 400 businesses from different areas. The tool is composed by a total of 18 internal and external barriers, and allows the controllable barriers to be determined by identifying the sector and region. Furthermore, there is a coefficient that classifies the businesses in ranges from high, medium and low in terms of innovation´s facilities. The methodology for the calculation of the barriers for innovation in business can be the base to measure innovation obstacles in regions, clusters and sectors, because it provides an indicator of the most representative barriers in each of them. This can be useful to generate some strategies to close or eliminate those barriers through public policies and summons with specific projects.<hr/>Las barreras para la innovación han sido estudiadas desde hace más de 40 años, sin embargo, en la mayoría de estos estudios el tema ha sido abordado de una forma cualitativa, lo que indica que se requieren herramientas que permitan cuantificar el efecto de las barreras para la innovación dentro de las organizaciones. En esta ocasión, se presentan los resultados de la herramienta, coeficiente ''U'' de innovación, desarrollada por investigadores de la Universidad Pontificia Bolivariana, la cual fue aplicada a 400 empresas de diversos sectores. La herramienta está conformada por un total de 18 barreras internas y externas, y permite detectar las barreras controlantes (o más importantes) por sector y región; así como un coeficiente que clasifica las empresas en rangos de alto, medio y bajo en cuanto a facilidades para innovar. Sin embargo, ha surgido la necesidad de aumentar el número de barreras y de generar otros indicadores por empresa. La metodología para el cálculo de barreras para la innovación en empresas puede ser la base para la medición de los obstáculos de innovación en regiones, cluster y sectores, ya que reflejaría un indicador de las barreras más representativas en cada uno de ellos y sería útil para generar estrategias eliminar esas barreras a través de políticas públicas y convocatorias con proyectos específicos que permitan la eliminación de las barreras para la innovación. <![CDATA[<B>Thermogravimetric characteristics and kinetics of pyrolysis of coal blends</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400003&lng=en&nrm=iso&tlng=en Thermogravimetric characteristics and pyrolysis kinetics of coal blends were investigated using a thermogravimetric analyser under heating rate of 20°C/min, from room temperature to 850°C. Original coal samples were obtained from three Colombian regions: Valle del Cauca, South West (VAL), Antioquia, West Midlands (ANT) and Cundinamarca, Midlands (CUN). Coal blend samples (50-50 % w/w) were obtained from original coal of these three regions. The weight loss curves of coals obtained by thermogravimetry (TG) showed different trends. These may indicate that pyrolysis behaviours were not similar due to coal molecular structures have different chemical bonds. In addition, a kinetic analysis was performed to fit TG data. In the analysis, it was assumed that a single chemical reaction described the pyrolysis of coals and coal blends. A Synergy Activation Energy Ratio (SAER) was defined in order to determine an additive effect between coals and coal blends, during pyrolysis. Obtained results showed that the SAER of the CUN-VAL coal blend is close to the unit, meaning that the blend has an additive behaviour. However, the SAER of ANT-VAL coal blend is lower than one, whereas of the ANT-CUN coal blend is higher than one. It suggests that VAL and CUN coals may have a non-additive reaction when they are blended with ANT coal.<hr/>Las características termogravimétricas y la cinética de la pirolisis de mezclas de carbones se investigaron usando un analizador termogravimétrico con velocidades de calentamiento de 20°C/min desde temperatura ambiente hasta 850°C. Las muestras de carbones originales se obtuvieron de tres regiones colombianas: Valle del Cauca (VAL), Antioquia (ANT) y Cundinamarca (CUN). Las muestras de carbones mezclados (50-50 % p/p) se produjeron a partir de carbones originales de esas tres regiones. Las curvas de pérdida de peso de los carbones obtenidas por termogravimetría (TG) mostraron diferentes tendencias. Esas curvas podrían indicar que los comportamientos durante la pirólisis no fueron similares debido a que las estructuras moleculares de los carbones tienen diferentes enlaces químicos. Además, un análisis cinético se realizó para ajustar los datos de TG. En el análisis, se supuso que una reacción química única describe la pirólisis de carbones originales y mezcla de carbones. Una relación de Sinergia de Energía de Activación (SAER) se definió con el fin de determinar el efecto aditivo entre los carbones y la mezcla de carbones durante la pirólisis. Los resultados obtenidos mostraron que la SAER de la mezcla CUN-VAL está cerca de la unidad, lo que significa que la mezcla tiene un comportamiento aditivo. Sin embargo, el SAER de la mezcla ANT-VAL es inferior a uno, mientras que de la mezcla ANT-CUN es mayor que uno. Esto sugiere que los carbones VAL y CUN podrían tener una reacción no aditiva cuando se mezclan con el carbón ANT. <![CDATA[<B>Aggregation study of asphaltenes from colombian Castilla crude oil using molecular simulation</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400004&lng=en&nrm=iso&tlng=en A molecular simulation model to study the mechanism for asphaltene aggregation is presented. Four species were selected, obtained from structural analysis of asphaltenes from the oil extracted from Castilla oil field, in Colombia. Energetic contributions to the aggregation process for each species were studied, and the solubility parameter was evaluated. Finally, the aggregation process between different species was studied in order to determine the tendency of the molecules towards self-association. Results show that for all species, aggregation state is energetically favorable; also, both Van der Waals interactions and electrostatic forces contribute equally to the aggregation process. It was also found that the molecular structure of the substances has a big influence on the manner in which asphaltenes aggregate. For continental structures, long ramifications cause a physical obstacle for aggregation. On the other hand, the molecular flexibility associated with archipelago structures enables the aggregation with other species, but somehow hinders the process of self-association. The solubility parameter for all four substances was within the range established by literature.<hr/>Se presenta un modelo de simulación molecular para estudiar el mecanismo de agregación de asfaltenos. Se seleccionaron cuatro especies, obtenidas a partir de análisis estructurales del petróleo extraído del campo Castilla, en Colombia. Se estudiaron las contribuciones energéticas al proceso de agregación y se calculó el parámetro de solubilidad para cada especie. Finalmente, se estudió el proceso de agregación entre las diferentes especies con el fin de determinar la tendencia de las moléculas hacia la autoasociación. Los resultados muestran que para todas las especies, el estado de agregación es energéticamente favorable, y que tanto las fuerzas de Van der Waals como las fuerzas electrostáticas contribuyen en igual magnitud al proceso de agregación. Se encontró también que la estructura molecular de las moléculas tiene una gran influencia en la manera cómo se agregan los asfaltenos. Para las estructuras continentales, las ramificaciones largas ocasionan un impedimento físico para la agregación. Por otro lado, la flexibilidad asociada a las moléculas tipo archipiélago favorece la agregación con otras especies, pero de alguna manera entorpece la autoasociación. El parámetro de solubilidad para todas las especies se encontró dentro del rango establecido por la literatura. <![CDATA[<B>Characterization and development of closed-form solutions for axle load spectra associated with trucks circulating the highways of Colombia</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400005&lng=en&nrm=iso&tlng=en An appropriate design of pavement structures requires estimation of the effects produced by traffic loads. For this reason, it is necessary to predict the number of vehicles traveling on road surfaces, identifying the axle configurations and the magnitude of the load. Thirty-eight (38) mobile weigh stations were positioned on different strategic points of the Colombian national road network to characterize the traffic condition of the country, 59.622 trucks were observed. This paper presents Axle Load Spectra that could be used to characterize the traffic condition of the Colombian's highway network. Data showed that the different axle configurations (Single, Tandem and Tridem) exhibit two peaks, associated with loaded and unloaded truck conditions. It was noted that a significant number of axles exceeds the permitted load limit, which could explain the critical state of the road network in Colombia. Finally, a mixture of three (3) theoretical distributions was used to characterize the overall axle load distributions. The proposed model presents acceptable predictive capabilities; therefore, it has potential to be used as a tool in the design process of the pavement.<hr/>El diseño adecuado de las estructuras de pavimento requiere de la estimación de los efectos producidos por las cargas de tráfico. Por esta razón, es necesario predecir el número de vehículos que se desplazaran sobre superficies de carretera e identificar las configuraciones de ejes y la magnitud de la carga. Treinta y ocho (38) operativos de pesaje móviles fueron colocados en diferentes puntos estratégicos de la red vial nacional colombiana con el objetivo de caracterizar la condición de tráfico del país; en estos operativos se evaluaron 59,622 camiones. Este artículo presenta espectros de carga por eje que podrían ser utilizados para caracterizar el estado del tráfico de la red de carreteras de Colombia con el fin de dimensionar las estructuras de pavimentos. Los datos mostraron que las diferentes configuraciones de ejes (simple, doble y Tridem) muestran dos picos, asociados a las condiciones de camiones cargados y descargados. Se observó que un número significativo de ejes excede el límite de carga permitido, lo que podría explicar el estado crítico de la red de carreteras en Colombia. Por último, una mezcla de tres (3) distribuciones teóricas se utilizó para caracterizar las distribuciones generales de carga por eje. Se observó que los modelos propuestos presentan capacidades de predicción aceptables, por lo tanto, tienen potencial para ser utilizados como una herramienta confiable en el proceso de diseño de pavimentos. <![CDATA[<B>Transmission of visible light through mortars using fluorite as a fine aggregate</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400006&lng=en&nrm=iso&tlng=en This article presents the results of an evaluation of the optical properties of white and gray Portland cement mortars within the visible light spectrum. Eight controllable variables were studied: size of aggregate, type of cement, water-cement ratio, type of aggregate, cement-aggregate ratio, thickness of mortar, percentage of air entrained and percentage of optical fiber. A mathematical model was used to analyze the behavior of a light beam as it passes across a mortar. Three properties were measured: reflection, absorption and transmittance. A spectrophotometer and two sources of light were used. Of the eight controllable variables, thickness, aggregate size and cement type were those with the greatest impact on transmittance.<hr/>En este artículo se presentan los resultados de la evaluación de las propiedades ópticas, en el intervalo de luz visible, en morteros de cemento Pórtland blanco y gris a partir de ocho variables controlables: tamaño del agregado, tipo de cemento, relación agua-cemento, tipo de agregado, relación cemento-agregado, espesor del mortero, porcentaje de aire incluido y porcentaje de fibra óptica. Se definió la modelación matemática que permitió identificar el comportamiento de un haz de luz a medida que atraviesa los morteros. Se midieron tres propiedades: reflexión, absorción y transmitancia. Se utilizó un espectrofotómetro y dos fuentes de luz. De las ocho variables controlables el espesor, el tamaño del agregado y el tipo de cemento son las de mayor incidencia sobre la transmitancia. <![CDATA[<B>Energy absorption capacity of expanded metal meshes subjected to tensile loading</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400007&lng=en&nrm=iso&tlng=en Metallic energy absorption components should be able to absorb energy in different ways, depending on the type of the applied loads, namely axial compression, bending moment, shear loads, tensile forces, or a combination of these. A stable response through the whole deformation process is always expected, however, this depends essentially on geometrical parameters such as length and cross-section, as well as on material properties. Expanded metal meshes are manufactured upon an in-line expansion of partially slit metal sheets, creating a mesh with openings, formed by strands and bonds, a geometric configuration that may be exploited for energy-absorbing systems. This paper presents an experimental study on the structural response of expanded metal meshes (standard and flattened) subjected to tensile forces. The study also examines the influence of the annealing heat-treatment on the mechanical behavior of the expanded metal meshes. The results show that the flattened meshes are capable to absorb more energy than the standard ones. In addition, it is noticed that standard meshes are more sensitive in terms of the structural responses to the heat-treatments than the flattened meshes.<hr/>Los componentes metálicos usados para absorber energía deben ser capaces de absorber la energía de diferentes maneras dependiendo del tipo de las cargas aplicadas, es decir, compresión axial, flexión, corte o fuerzas de tracción, o una combinación de éstas. Se espera siempre una respuesta estable a través de todo el proceso de deformación; sin embargo, esto depende esencialmente de parámetros geométricos como la longitud y la sección transversal, así como de las propiedades del material. Las mallas de metal expandido se fabrican mediante la expansión parcial en línea de láminas metálicas, creando una malla con aberturas formadas por venas y nodos, una configuración geométrica que puede ser aprovechada en sistemas que absorban energía. Este trabajo presenta un estudio experimental sobre la respuesta estructural de mallas de metal expandido (estándar y aplanadas) sometidas a fuerzas de tracción. El estudio también analiza la influencia del tratamiento térmico de recocido sobre el comportamiento mecánico de las mallas de metal expandido. Los resultados muestran que las mallas aplanadas son capaces de absorber más energía que los estándares. Además, se observa que las mallas estándares son más sensibles que las mallas aplanadas, en términos de la respuesta estructural a los tratamientos térmicos. <![CDATA[<B>Virtual test bench as a complement to study thermal area</B>: <b>application in vapor compression systems</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400008&lng=en&nrm=iso&tlng=en This paper describes an educational simulator developed in the software Engineering Equation Solver to simulate the behavior of a vapor compression system. The application is focused on educational purposes, specifically for handling skills in refrigeration facilities by students in engineering careers. Using this simulator, the students are able to analyze easily the influence of the measured parameters (such as the compressor rotation speed, volumetric flow rates and temperature of the secondary fluids) on the energy performance of the facility and its components. The virtual test bench consists of a primary screen showing a general scheme of the vapor compression facility with input and output parameters. From this primary screen, the performance of the main components can be analyzed. Finally, this virtual test bench was tested by engineering students, concluding that the simulator is an interesting tool as improvement and support for learning in different subjects.<hr/>Este artículo describe un simulador educativo desarrollado en el software Engineering Equation Solver para representar el comportamiento de un sistema de compresión de vapor. La aplicación está enfocada con propósitos educativos, particularmente para que estudiantes de ingeniería adquieran habilidades en el manejo de instalaciones de refrigeración. Mediante el uso de este simulador, los estudiantes tendrán la capacidad de analizar fácilmente la influencia que tienen parámetros medidos experimentalmente (como la velocidad de rotación del compresor, el flujo volumétrico y la temperatura de fluidos secundarios) sobre la eficiencia energética del sistema y sus componentes principales. El banco virtual consta de una pantalla principal que muestra un esquema general del sistema de compresión de vapor con parámetros de entrada y de salida. Desde la pantalla principal, el desempeño de los componentes principales puede ser analizado. Finalmente, este banco de pruebas virtual ha sido probado por estudiantes de ingeniería, concluyendo que el simulador es una herramienta de apoyo que permite mejorar el aprendizaje de las diferentes áreas del conocimiento. <![CDATA[<B>Drought and genetic programming to approach annual agriculture production normalized curves</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400009&lng=en&nrm=iso&tlng=en Drought is a severe, recurrent disaster for Mexican agriculture, causing huge economic losses, which could be reduced if appropriate planning and policies were carried out and the production loss could be predicted. This paper presents the application of a genetic programming scheme to obtain normalized curves of annual agricultural production for each state in Mexico as a function of the return period of drought events and, from them, compute the normalized value of the yearly production. This value, multiplied by the historic mean production of the state, gives the production expressed in Mexican pesos for a specified return period. Two techniques were used for this data analysis, the first one is general and considers each state separately; for the second technique the country was divided into six groups, depending on the value of the agricultural production variation coefficient. The results showed that for the first case large dispersion was found between the reported and computed data, while a better fit was found for the groups; specifically for groups 2, 3 and 6. The resulting functions can be used by decision makers at both federal and state levels, to better deal with drought events.<hr/>La sequía es un severo desastre, recurrente para la agricultura mexicana, que causa enormes pérdidas económicas que podrían reducirse si se contara con políticas y planeación adecuadas y se pudiera predecir la reducción en la producción ante su ocurrencia. En este estudio se presenta la aplicación de un esquema de programación genética para obtener curvas normalizadas de producción agrícola anual para cada estado de la República Mexicana en función del periodo de retorno de eventos de sequías y, a partir de ellas, estimar el valor normalizado de la producción anual. Este valor al ser multiplicado por la media histórica de la producción en el estado, proporciona la producción expresada en pesos mexicanos para un periodo de retorno específico. Dos técnicas fueron utilizadas para este análisis de datos, la primera es general e incluye cada estado por separado; en la segunda técnica el país fue dividido en seis grupos, dependiendo del valor del coeficiente de variación de la producción agrícola. Los resultados mostraron que en el primer caso se tiene una gran dispersión entre los datos medidos y calculados, mientras que se halló un mejor ajuste cuando se utilizaron grupos; especialmente en los grupos 2, 3 y 6. Las funciones encontradas pueden utilizarse por los tomadores de decisiones tanto a nivel estatal como a nivel federal, para abordar los eventos de sequía. <![CDATA[<B>An analysis of tools for automatic software development and automatic code generation</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400010&lng=en&nrm=iso&tlng=en Software development is an important area in software engineering, which is why a wide range of techniques, methods, and approaches has emerged to facilitate software development automation. This paper presents an analysis and evaluation of tools for automated software development and automatic code generation in order to determine whether they meet a set of quality metrics. Diverse quality metrics were considered such as effectiveness, productivity, safety, and satisfaction in order to carry out a qualitative and quantitative evaluation. The tools evaluated are CASE tools, frameworks, and Integrated Development Environments (IDEs). The evaluation was conducted to measure not only the tools' ability to be employed, but also their support for automated software development and automatic source code generation. The aim of this work is to provide a methodology and a brief review of the most important works to identify the main features of these works and present a comparative evaluation in qualitative and quantitative terms of quality metrics. This would provide software developers with the information they need to decide the tools that can be useful for them.<hr/>El desarrollo de software es una importante área en la ingeniería de software, por tal motivo han surgido técnicas, enfoques y métodos que permiten la automatización de desarrollo del mismo. En este trabajo se presenta un análisis de las herramientas para el desarrollo automático de software y la generación automática de código fuente, con el fin de evaluarlas y determinar si cumplen o no con un conjunto de características y funcionalidades en términos de calidad. Dichas características incluyen eficacia, productividad, seguridad y satisfacción, todo a través de una evaluación cualitativa y cuantitativa. Estas herramientas son 1) herramientas CASE, 2) marcos de trabajo (frameworks) y 3) ambientes de desarrollo integrado (IDEs). La evaluación se llevó a cabo con el fin de medir no sólo la capacidad de uso, sino también el apoyo que brindan para el desarrollo de software automático y la generación automática de código fuente. El objetivo de este trabajo es proporcionar una metodología y una breve revisión de los trabajos más importantes para, de esta forma, identificar las principales características de éstos y presentar una evaluación comparativa en términos cualitativos y cuantitativos, con la finalidad de proporcionar la información necesaria para el desarrollador de software que facilite la toma de decisiones al considerar herramientas que le pueden ser útiles. <![CDATA[<B>Requirements engineering based on knowledge</B>: <B>a comparative case study of the KMoS-RE strategy and the DMS process</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400011&lng=en&nrm=iso&tlng=en Nowadays, a difficult problem that software development companies are facing in the elicitation and discovering requirement process is the management of tacit knowledge, which is valuable information that for some reason remains hidden to the developers. The Knowledge Management on a Strategy for Requirements Engineering (KMoS-RE) is especially designed to face that problem and obtain a set of requirements that fulfill the clients' needs and expectations. This paper presents the design and preliminary results of an empirical study that compares the KMoS-RE strategy with the requirements elicitation process proposed by MoProSoft; a Mexican software process model oriented to the specific needs of the software industry in Mexico. Preliminary results show that KMoS-RE seems to be more suitable than the before mentioned process proposed by MoProSoft.<hr/>Actualmente la gestión de conocimiento tácito, información valiosa que por alguna razón permanece oculta a los desarrolladores, es un problema que enfrentan las compañías de desarrollo de software en la elicitación y descubrimiento de requisitos. Este problema ocasiona que los productos finales no cumplan con las expectativas y necesidades de los clientes y/o usuarios. La Estrategia de Ingeniería de Requisitos Basada en Conocimiento (KMoS-RE por sus siglas en inglés) fue diseñada especialmente para encarar este problema y obtener un documento de especificación lo más cercano a las necesidades de los clientes y/o usuarios. Este artículo presenta el diseño y los resultados preliminares de un estudio empírico que compara la estrategia KMoS-RE con el proceso de elicitación de requisitos propuesto por MoProSost: Modelo de Procesos de Software orientado a la industria de software en México. Los resultados preliminares muestran que la estrategia KMoS-RE es más adecuada que el proceso de elicitación de requisitos propuesto por MoProSoft. <![CDATA[<B>A 360-degree process improvement approach based on multiple models</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400012&lng=en&nrm=iso&tlng=en Several models and methodologies have been defined in order to support organisational process improvement. The implementation and institutionalisation of these approaches allow organisations to improve, mature, acquire and institutionalise best practices and management systems from multiple approaches. However, there are two issues, which have to be kept in mind. On one hand, it is possible to find several similarities amongst improvement, management and governance approaches. Experts and practitioners can thereby save, improve and optimize the organisational efforts using the best parts of existing models as building blocks; they can thus be prepared to deconstruct models, aiming for their designs to meet multiple needs. On the other hand, nonetheless, there are other factors which may influence, for example, compliance, or those aspects related to structural differences such as terminology, size, process, element structure, content, granularity, and complexity, which make difficult to work in multi-model environments. This being the case, the people involved need a map or guideline telling them how to carry out the harmonisation of models and standards that have to be implemented inside their organisations. In the quest to help support the work of harmonization of multiple models, this paper presents a framework that defines elements needed for the harmonization of multiple reference models to occur, as well as its application to three case studies. The results obtained show that the framework proposed has allowed the harmonization of several models.<hr/>Diferentes modelos y metodologías se han definido para apoyar la mejora de procesos de las organizaciones. La implementación e institucionalización de estos enfoques permiten a las organizaciones mejorar, madurar, adquirir e institucionalizar las mejores prácticas y sistemas de gestión a partir de múltiples enfoques. Sin embargo, hay dos cuestiones que se deben tener en cuenta. Por un lado, es posible encontrar varias similitudes entre los enfoques de mejora, gestión y gobierno, de esta manera, expertos y profesionales pueden ahorrar, mejorar y optimizar los esfuerzos de la organización usando las mejores partes de los modelos existentes como bloques de construcción; en este sentido, tanto expertos como profesionales deben estar preparados para reconstruir los modelos con el objetivo de diseñar las prácticas de una organización de acuerdo a sus múltiples necesidades. Por otro lado, sin embargo, hay otros factores que pueden influir en el cumplimiento, lo que hace difícil para trabajar en entornos multimodelo, por ejemplo, los aspectos relacionados con las diferencias estructurales tales como la terminología, tamaño, estructura de elementos de proceso, contenido, granularidad y complejidad. En este sentido, las personas involucradas necesitan una ruta o guía que les permita saber cómo llevar a cabo la armonización de modelos y estándares que tienen que aplicar en sus organizaciones. Con el objetivo de facilitar la labor en la armonización de múltiples modelos, este artículo presenta un marco de trabajo que define los elementos necesarios para apoyar la armonización de múltiples modelos de referencia. Asimismo, se presenta su aplicación en tres estudios de caso. A partir de los resultados obtenidos ha sido posible armonizar múltiples modelos a través del marco de trabajo (framework) propuesto. <![CDATA[<B>Assessment proposal of teaching and learning strategies in software process improvement</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400013&lng=en&nrm=iso&tlng=en Teaching and learning environments of software process improvement are incorporating new strategies for helping to decrease current weaknesses related to basic-sciences formation, motivation, and communication. One of such strategies includes the usage of gamification principles for achieving student competencies related to teamwork, problem solving, leadership, and effective communication. For assessing the teaching and learning strategies, it is required to consider the following features: i) the student competencies; ii) the didactic proposals and techniques; and, iii) the satisfaction level of the students, regarding the teaching strategy. In this paper, an assessment proposal of teaching and learning strategies in software process improvement is presented, with a preliminary validation method based on gamification principles. Finally, a case study for validating a didactic proposal is presented as a pilot of the assessment proposal.<hr/>En los ambientes de enseñanza y aprendizaje de mejora de procesos software se han incorporado nuevas estrategias para ayudar a disminuir debilidades actuales asociadas con la fundamentación en ciencias básicas, la motivación y la comunicación. Una de estas estrategias comprende el uso de principios de gamificación, los cuales buscan en el estudiante el desarrollo de competencias relacionadas con el trabajo en equipo, la resolución de problemas, el liderazgo y la comunicación efectiva. Para evaluar las estrategias de enseñanza y aprendizaje, es necesario considerar características como: i) competencias de los estudiantes; ii) propuestas y técnicas didácticas; y iii) niveles de satisfacción de los estudiantes respecto al proceso de enseñanza. En este artículo se presenta una propuesta de evaluación de estrategias de enseñanza/aprendizaje en mejora de procesos de software, junto con un método de validación preliminar basado en principios de gamificación. Finalmente, se presenta un caso de estudio para validar la propuesta didáctica, como piloto de la propuesta de evaluación. <![CDATA[<B>Helping organizations to address their effort toward the implementation of improvements in their software process</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400014&lng=en&nrm=iso&tlng=en Due to the importance of Software Development Small and Medium Enterprises (SMEs) in the software industry, it is necessary to guarantee the quality of their products. In this context, the implementation of software process improvements offers an attractive way to achieve it. Unfortunately, the lack of knowledge on how to address the improvement effort makes the implementation of software improvements in SMEs a path full of obstacles, and most of the times impossible to achieve. In order to help SMEs addressing their improvement efforts, this paper aims to present a framework which allows addressing their improvement effort based on the identification of their main problems. Moreover, the framework provides a starting point regarding the model, standard or agile methodology to be used as reference based on the SME current needs, features and work culture. Finally, a case study showing the implementation of the framework in four SMEs of Zacatecas region is included.<hr/>Debido a la importancia de las pequeñas y medianas empresas (pymes) de desarrollo de software para la industria del software, es importante garantizar la calidad de sus productos, para lo cual la mejora de sus procesos ofrece un camino atractivo para lograrlo. Desafortunadamente, la falta de conocimientos que existe en las pymes sobre cómo o dónde dirigir su esfuerzo de mejora hace que la implementación de mejoras sea un camino lleno de obstáculos, la mayoría de veces imposible de lograr. Este artículo presenta un marco de trabajo cuyo objetivo es ayudar a las pymes a encontrar un punto de inicio para dirigir sus esfuerzos de mejora, basado en la identificación de sus problemas principales. Además, el marco de trabajo proporciona una guía para iniciar la implementación de la mejora (punto de inicio), referente a los modelos, estándares y/o metodologías ágiles que pueden ser usados como referencia, basada en sus necesidades, características y cultura de trabajo. Finalmente, el artículo incluye un caso de estudio en el que se muestran los resultados de la implementación del marco de trabajo en cuatro pymes de la región de Zacatecas. <![CDATA[<B>How small and medium enterprises can begin their implementation of ITIL?</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400015&lng=en&nrm=iso&tlng=en Sequencing of Information Technology Infrastructure Library (ITIL) processes related to their order of implementation is one of the pending issues in the ITIL handbooks. Other frameworks and process models related to service management (e.g., COBIT, COSO and CMMI-SVC) are quite well described in the literature and their handbooks. However, the identification of the first process to be implemented has not been deeply analysed in the previous frameworks and models, and it is also a complex question to answer for organizations, especially Small and Medium Enterprises (SMEs). Moreover, SMEs are the organizations that have the largest presence in the world economy; official data of General Business Directory, show that their range of presence in different countries around the world is between 93% and 99%, and the average of employment contribution is around 60%. Consequently, the improvement of information technology service management is of vital importance to accomplish in this type of enterprises. This research has focused on two surveys that aim at helping SMEs to select the ITIL process by which starting the implementation of ITIL. In the first survey, data were gathered through a questionnaire to SMEs registered in the region of Madrid. The second survey obtained data from experts and enterprises in countries as Spain, Ecuador, Chile, Luxembourg, Colombia, Norway, El Salvador, and Venezuela. Finally, the results of both surveys show that the tendency for starting an ITIL implementation in SMEs points to one of the processes included in the Service Operation.<hr/>La secuenciación de los procesos de la Biblioteca de Infraestructura de Tecnologías de Información (ITIL) en cuanto a su orden de implementación es un aspecto no abordado en sus libros. Otros marcos de trabajo y modelos de proceso relativos a la gestión de servicios (p.ej., COBIT, COSO y CMMI-SVC) son suficientemente explicados en la literatura y en sus libros guía. Sin embargo, la identificación del primer proceso a implementar no ha sido analizada en produndidad en los marcos de trabajo y modelos anteriores, y es también una pregunta difícil de contestar por las organizaciones, especialmente por las pequeñas y medianas empresas (PYMEs). Las PYMEs son organizaciones que tienen una abrumadora presencia en la economía mundial; los datos oficiales del Directorio Central de Empresas muestran que su rango de presencia en diferentes países alrededor del mundo es entre el 93% y el 99% del total de empresas legalmente registradas, y el promedio de contribución al empleo es alrededor del 60%. En consecuencia, la mejora de la gestión de servicios de tecnología de la información en este tipo de empresas es un asunto imperativo de lograr. Esta investigación se ha enfocado en dos estudios cuyo objetivo es ayudar a las PYMEs a seleccionar el proceso de ITIL por el que podrían comenzar a implementar ITIL. En el primer estudio, los datos fueron recogidos mediante una encuesta aplicada a PYMEs registradas en la Comunidad Autónoma de Madrid. El segundo obtuvo datos de empresas y expertos de países como España, Ecuador, Luxemburgo, Chile, Colombia, Noruega, El Salvador y Venezuela. Finalmente, los resultados de ambos estudios muestran que la tendencia para iniciar una implementación ITIL en las PYMEs apunta a uno de los procesos incluidos en la Operación del Servicio. <![CDATA[<B>The impact of using a proton exchange membrane on alkaline fuel cell performance</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400016&lng=en&nrm=iso&tlng=en A hydrogen fuel cell was designed in the laboratory, operating in potentiostatic mode (1 V, 1.23 V, 1.5 V and 5 V), obtaining characteristic parameters that allow improving hydrogen production by means of electrolysis. For this, a proton exchange membrane, Nafion 117, was adapted, which was subjected to an activation pretreatment, allowing us to compare its performance and function. Values for current density, degree of conversion, mass transfer coefficient and hydrogen flow generated in an instant (t) were obtained.<hr/>Se diseñó una celda combustible de hidrógeno a nivel de laboratorio, operando en modo potenciostático (1 V, 1,23 V, 1,5 V y 5 V), obteniéndose parámetros característicos que permiten mejorar mediante una electrólisis la producción de hidrógeno. Para esto se adaptó una membrana de intercambio protónico, Nafion 117, la cual fue sometida a un tratamiento previo de activación, permitiendo comparar su funcionamiento y rendimiento. Se obtuvieron valores de densidad de corriente, grado de conversión, coeficiente de transferencia de materia y caudal de hidrógeno generado en un instante (t). <![CDATA[<B>An optimal high thermal conductive graphite microchannel for electronic device cooling</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400017&lng=en&nrm=iso&tlng=en This article describes the design of an optimal rectangular microchannel made of a high thermal conductive graphite (HTCG). For simulating the proposed microchannel heat sink, the total resistance model and the entropy generation minimization criterion were used. For solving the optimization problem, the unified particle swarm optimization algorithm (UPSO), was used. Results showed a marked effect of using this high thermal conductor when compared to traditional materials, such as aluminum, and while using air and ammonia gas as the working fluids. It is also reported the relative effect of the constriction, convective and fluid thermal resistances on the overall equivalent thermal resistance. As a demonstrative example when changing the nature of the coolant, a titanium dioxide nanofluid was selected. It was found that the Nusselt number is perceptibly lower, when the coolant is a nanofluid and the material for the making of the microchannel is an HTCG.<hr/>Este artículo describe el diseño de un microcanal rectangular óptimo, construido con grafito de alta conductividad térmica (HTCG). Para simular el disipador de microcanales propuesto se utilizó el modelo de resistencia térmica total y el criterio de minimización de la generación de entropía. Para solucionar el problema de optimización, se utilizó el algoritmo de enjambre de partículas unificado (UPSO). Los resultados mostraron un efecto marcado al utilizar este conductor térmico, en comparación con materiales tradicionales (tales como aluminio), y utilizando aire y amoniaco gaseoso como fluidos de trabajo. También se reporta el efecto relativo de las resistencias térmicas de constricción, de convección y del fluido, sobre la resistencia térmica equivalente total. Como un ejemplo demostrativo del efecto causado al cambiar la naturaleza del refrigerante, se seleccionó un nanofluido de dióxido de titanio. Se encontró que el número de Nusselt es perceptiblemente menor, cuando se utiliza un nanofluido como refrigerante y cuando el material con que está construido el microcanal es HTCG. <![CDATA[<B>A practical method to compute shear force and bending moment envelope curves for isostatic bridges subjected to vehicle live loads</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400018&lng=en&nrm=iso&tlng=en In order to obtain the envelope curve of shear force and bending moment induced by vehicle live loads along Mexican isostatic bridges with spans from 15.0 to 50.0 m, first and second-degree equations are calculated by considering the position from the initial right joint to the final left joint of a beam as the independent variable. Additional to the professional use of this elementary tool, it can be used in academic courses of bridge design in order to avoid the illegal use of commercial software. By using a simple-short algorithm developed in a free software application, the theoretical envelope curves are obtained. In order to simplify the process, these curves are used to calculate the coefficients of shear force and bending moment equations by means of a statistical analysis. The minimum value of correlation coefficient for both methodologies was 0.98. This proposed method could be also extended to other vehicle loads used worldwide.<hr/>Este artículo presenta un método práctico para calcular la curva envolvente de cortante y momento en puentes isostáticos con longitudes entre 15,0 y 50,0 m, considerando las cargas vivas del reglamento mexicano. La curva de cortante es una función de primer grado mientras que el momento flector es de segundo grado, en ambos casos la distancia a partir del extremo izquierdo de la viga es la variable independiente. Esta herramienta puede utilizarse ya sea en el diseño de puentes en el campo profesional o en cursos académicos, evitando así el uso ilegal de software profesional. Mediante un algoritmo simple desarrollado en software libre se calcularon las envolventes de ambos elementos mecánicos, utilizadas posteriormente para evaluar, mediante un análisis estadístico, los coeficientes de las ecuaciones respectivas. El mínimo coeficiente de correlación entre ambos métodos fue 0,98, lo cual muestra la capacidad del método. Este proceso puede ser implementado para cualquier tipo de carga viva en puentes. <![CDATA[<B>Subject-independent acoustic-to-articulatory mapping of fricative sounds by using vocal tract length normalization</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302015000400019&lng=en&nrm=iso&tlng=en This paper presents an acoustic-to-articulatory (AtoA) mapping method for tracking the movement of the critical articulators on fricative utterances. The proposed approach applies a vocal tract length normalization process. Subsequently, those acoustic time-frequency features better related to movement of articulators from the statistical perspective are used for AtoA mapping. We test this method on the MOCHA-TIMIT database, which contains signals from an electromagnetic articulograph system. The proposed features were tested on an AtoA mapping system based on Gaussian mixture models, where Pearson correlation coefficient is used to measure the goodness of estimates. Correlation value between the estimates and reference signals shows that subject-independent AtoA mapping with proposed approach yields comparable results to subject-dependent AtoA mapping.<hr/>Este artículo presenta un método de mapeo acústico-a-articulatorio que permite hacer seguimiento del movimiento de articuladores críticos en voces del tipo fricativo. El método propuesto hace uso de aquellas características de tiempo-frecuencia mejor relacionadas desde un punto de vista estadístico con el movimiento de los articuladores, en donde, para el proceso de estimación de características, se aplica normalización por longitud del tracto vocal. El método se prueba sobre la base de datos MOCHA-TIMIT, la cual contiene señales provenientes de un articulógrafo electromagnético. El conjunto de características propuesto se prueba sobre un sistema de mapeo acústico-a-articulatorio basado en modelos de mezclas Gaussianas, en donde la correlación de Pearson se utiliza para medir la bondad de las estimaciones. Se hacen pruebas de una manera independiente del hablante, es decir, los conjuntos de entrenamiento y prueba pertenecen a diferentes hablantes. Como resultado se obtiene que el valor de correlación entre las estimaciones, hechas de manera independiente del hablante, es comparable a la medida de desempeño obtenida desde un punto de vista dependiente del hablante.