Scielo RSS <![CDATA[Revista Facultad de Ingeniería Universidad de Antioquia]]> http://www.scielo.org.co/rss.php?pid=0120-623020100006&lang=en vol. num. 56 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<B>BaTiO<SUB>3</SUB> cubic synthesis by chemical ways</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600001&lng=en&nrm=iso&tlng=en En este trabajo se sintetizaron polvos cerámicos de titanato de bario (BaTiO3) mediante dos métodos químicos: coprecipitación y precursor polimérico (Pechini). Estos métodos, altamente reproducibles y confiables, permitieron obtener partículas de BaTiO3 nanométricas (<200 nm) con alta pureza química, a una temperatura de 650°C; además, se logró estabilizar la fase cúbica del BaTiO3 a temperatura ambiente. Se realizó una breve discusión sobre los mecanismos de formación de las partículas y una adecuada descripción de los procesos de síntesis. Los polvos obtenidos se caracterizaron empleando espectroscopía infrarroja (FTIR), difracción de rayos X (DRX), análisis térmico (ATD/TG) y microscopía electrónica de trasmisión (MET).<hr/>In this work were synthesized ceramic powders of barium titanate (BaTiO3 by two chemical methods: coprecipitation and polymeric precursor (Pechini). These methods, are highly reproducible and reliable, allowed to obtain nanosized BaTiO3 particles (<200 nm) with high chemical purity, at a temperature of 650 °C, moreover, allowed to stabilize the cubic phase of BaTiO3 at room temperature. We conducted a brief discussion on the mechanisms of particle formation and an adequate description of the synthesis processes. The powders were characterized using infrared spectroscopy (FTIR), X-ray diffraction (XRD), thermal analysis (DTA / TG) and transmission electron microscopy (TEM). <![CDATA[<B>Transport of explosive chemicals from the landmine burial in granular soils</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600002&lng=en&nrm=iso&tlng=en The transport of explosive-related chemicals (ERCs) in soils was studied during water infiltration and evaporation processes as a function of soil water content and temperature. The experiments were conducted in two 100 cm uniform cylindrical columns packed with homogeneous sand, and instrumented with air and water pressure sensors and sampling ports to monitor hydraulic conditions and ERCs concentration profiles in soil. TNT and DNT crystals were placed in a porous membrane and buried as a point source near the surface of the soil. Spatial and temporal concentration distributions of conservative solutes were used to evaluate transport behavior of TNT and DNT in soils. Velocity variations and comparison with the numerical model HYDRUS-2D indicate the presence of preferential flow paths. Water content and movement near TNT and DNT buried source highly influence their transport in soils and near soil-atmospheric surfaces. The formation of preferential flow paths are attributed to disturbances of soil properties by burial of ERC sources and water content heterogeneities. By the analysis of velocity variations, disturbances near the buried source resulted in hydraulic heterogeneities and preferential flow near the source, which influence their transport away from the source. Preferential flow causes faster movement and greater dispersion of the solutes during infiltration periods, and influences the rate of mixing in the system.<hr/>El transporte de compuestos químicos relacionados con explosivos (ERCs) en suelos se estudió durante procesos de infiltración y evaporación de agua como función del contenido de agua del suelo y la temperatura. Los experimentos fueron desarrollados en dos columnas cilíndricas uniformes de 100 cm de longitud empacadas con arena homogénea, equipada con sensores de presión de aire y de agua y puntos de muestreo para monitorear las condiciones hidráulicas y los perfiles de concentraciones de ERCs en el suelo. Los cristales de TNT y DNT fueron localizados en una membrana porosa y se enterraron como fuente puntual cerca de la superficie del suelo. Las distribuciones espaciales y temporales de la concentración de solutos conservadores fueron utilizadas para evaluar el comportamiento del transporte de TNT y del DNT en suelo granular. Las variaciones de velocidad y la comparación con los resultados de la simulación numérica usando el modelo HYDRUS-2D indica la presencia de flujos preferenciales. El contenido de agua y el movimiento de agua alrededor de la fuente enterrada de TNT y DNT influencia altamente su transporte en suelos granulares y cerca de la superficie que interactúa con la atmósfera. La formación de caminos preferenciales son atribuidos a la alteración de las propiedades del suelo debido al enterramiento de las fuentes de ERC y a las heterogeneidades en el contenido de agua. Las alteraciones alrededor de la fuente enterrada que conlleva a heterogeneidades hidráulicas, influye en el transporte cerca a la fuente. El flujo preferencial produce un movimiento más rápido y mayor dispersión de los solutos durante los periodos de infiltración, e influencia la tasa de mezcla en el sistema. <![CDATA[<B>Sulphuric acid leaching of mechanically activated chalcopyrite</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600003&lng=en&nrm=iso&tlng=en Con el objetivo de estudiar el efecto de la activación mecánica sobre la lixiviación de CuFeS2, cuatro muestras de este mineral fueron sometidas a molienda durante 1, 5, 8, y 15 h en un molino Atritor. Los polvos obtenidos fueron caracterizados microestructuralmente y morfológicamente mediante difracción de Rayos-X (DRX) y microscopía electrónica de barrido (MEB), respectivamente. Posteriormente fueron lixiviados en una solución de H2SO4 (0,54 M) a temperatura de 298 K. La concentración de Cu+2 en las soluciones fue determinada mediante espectrofotometría de absorción atómica. Los resultados obtenidos indicaron que el aumento del tiempo de molienda provoca un aumento en la recuperación de Cu, alcanzando un valor máximo de 38,2 % para una molienda de 15 h.<hr/>In order to study the effect of mechanical activation on the sulphuric acid leaching of CuFeS2, four samples were milled using an Atritor mill during 1, 5, 8, and 15 h. The powders were microstructural and morphologically characterized by means of X-ray diffraction (XRD) and scanning electron microscopy (SEM), respectively. The samples were leached using a solution of H2SO4 (0.54 M) at 298 K. The Cu+2 concentration was determined by means of atomic absorption spectrophotometry. The results obtained indicated that the increase in milling time results in increased recovery of Cu. The maximum recovery of Cu was 38.2 % for a milling time of 15 h. <![CDATA[<B>Simulation of the evaporation of drops from palm and castor oil biodiesels based on physical properties</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600004&lng=en&nrm=iso&tlng=en A reduction of oil reserves and an augmented production of greenhouse gases from fossil fuels have increased the use of biodiesel in internal combustion engines. Although physical and chemical properties of biodiesel and diesel are similar enough that allow the use of pure biodiesel in a traditional engine without considerable adjustments, differences in chemical structure of diesel and biodiesel change vaporization and combustion rates and can affect engine performance. In this study a model that can predict the evaporation rate of palm and castor oil biodiesel droplets at atmospheric pressure was developed. The model was validated with experimental data from the literature for the evaporation of n-heptane-droplets. The model estimates thermo-physical properties of biofuels using contribution group theory and was used to determine that castor oil biodiesel presents a lower evaporation rate than palm oil biodiesel due to differences in their physical properties (mainly density and vaporization enthalpy) which can be explained by a longer molecule and the presence of a hydroxyl groups in methyl ricinoleate, its main component.<hr/>La disminución de reservas y la producción de gases efecto invernadero por parte de los combustibles fósiles han aumentado el uso de biodiesel en motores de combustión interna. Si bien las propiedades físico-químicas del biodiesel son lo suficientemente similares a las del diesel para permitir su uso puro en motores diesel sin necesidad de hacer ajustes de consideración en el motor, la diferente estructura química del diesel y biodiesel causa cambios en la velocidad de evaporación y combustión que pueden afectar el desempeño del motor. En este estudio se desarrolló un modelo que predice la velocidad de evaporación de gotas de biodiesel de palma y ricino a presión atmosférica el cual se validó con resultados experimentales de la evaporación de una gota de n-heptano obtenidos de la literatura. El modelo calcula las propiedades termo-físicas de los combustibles utilizando la teoría de contribución de grupos y predijo que el biodiesel de ricino presenta un tiempo de evaporación mayor que el de palma debido a diferencias en sus propiedades físicas como densidad y entalpía de vaporización las cuales se explican por la diferente composición química del biodiesel y los grupos funcionales presentes en sus alquil ésteres. <![CDATA[<B>Simulation of two alternatives for SO<SUB>2</SUB> removal from wet cement kiln exhaust gases</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600005&lng=en&nrm=iso&tlng=en This work aims at simulating two processes for capturing sulfur dioxide from exhaust gases of wet clinker processes. The goal is to present a guide to cement manufacturers when selecting the most appropriate technology for wet processes in order to comply with environmental regulations. The available commercial technologies chosen for desulfurization process were: wet limestone and wet Cement Kiln Dust (CKD) removal processes. A commercial simulator (Aspen Plus v.2006.5) was used. The absorption tower -considered the core of the process- was simulated with an Aspen RadFrac model combined with Aspen RateSep calculations to provide better and more accurate simulation results than a simulation with the traditional equilibrium approach. This combination also allows better estimates for equipment sizing. The convergence issues, both for the absorption of sulfur dioxide and the overall process, were solved using Aspen Plus tools. <![CDATA[<B>Unsupported sulfides obtained from high specific area mixed oxides as hydrotreating catalysts</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600006&lng=en&nrm=iso&tlng=en Se prepararon materiales bimetálicos Ni-Mo, Co-Mo y Co-W por medio co-precipitación y Ni-W mediante síntesis hidrotérmica. La caracterización por difracción de rayos X (XRD) confirmó la formación de fases laminares fy en los molibdatos, mientras que los tungstatos exhibieron fases fy semi-cristalina y wolframita. Los análisis térmicos (TGA y DTA) de estos materiales mostraron transiciones de fase alrededor de 400°C, excepto el CoMofy a 350°C; a estas temperaturas fueron calcinados los precursores bimetálicos para producir óxidos mixtos, los cuales presentaron altas áreas específicas, si se comparan con materiales análogos reportados en la literatura por rutas de síntesis diferentes. Los análisis de espectroscopía infrarroja con transformada de Fourier (FTIR) confirmaron la obtención de las fases en las especies precursoras y calcinadas. La actividad catalítica de los óxidos mixtos sulfurados fue evaluada simultáneamente en las reacciones de hidrodesulfuración (HDS) de dibenzotiofeno (DBT) e hidrogenación (HYD) de tetralina. Los resultados mostraron un comportamiento similar a catalizadores comerciales y se observó además el efecto del promotor (Ni y Co) en las reacciones.<hr/>Several bimetallic Ni-Mo, Co-Mo and Co-W materials were prepared by co-precipitation and a Ni-W material through hydrothermal synthesis. The characterization by X-ray diffraction (XRD) of molybdates confirmed the formation of layered fy phase, while the tungstates showed both fy semi- crystalline and wolframite. The thermal analyses (TGA and DTA) of these materials showed phase transition around 400°C, excepting by CoMofy to 350°C; these temperatures were selected to calcine the bimetallic precursors to obtain mixed oxides, which exhibited high specific surface areas as compared to analogous materials reported in literature by different synthesis pathways. The Fourier transformed infrared spectroscopy (FTIR) confirmed the phase formation of the species in precursors and mixed oxides. The catalytic activity of the sulfurated mixed oxides was simultaneously evaluated in the hydrodesulphurization (HDS) of dibenzotiophene (DBT) and the hydrogenation (HYD) of tetraline. Results showed a similar behavior to commercial catalysts. The effect of promotors (Ni and Co) is discussed. <![CDATA[<B>Fluidised bed airlift reactors with internal circulation</B>: <B>hydrodynamics and carrier characterization</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600007&lng=en&nrm=iso&tlng=en Los reactores aerobios de lecho fluidizado con circulación interna utilizan biomasa activa adherida a un medio soporte (biopelícula), con la ventaja de retener gran concentración de la misma, utilizando poco espacio físico y pudiendo remover, en un mismo reactor, materia carbonácea y nitrogenada. La circulación del líquido ocurre debido a la diferencia de presión hidrostática producida por la inyección de aire en el tubo de subida. En la condición de medio bifásico fueron estudiadas las velocidades de circulación, fracción volumétrica de aire y coeficiente de transferencia de oxígeno, utilizando cuatro configuraciones de reactores. En medio trifásico se evaluaron las velocidades de circulación, la fracción volumétrica de aire y el coeficiente de transferencia de oxígeno en una de dichas configuraciones. También se realizó la caracterización de tres posibles medios de soporte granulares. Se determinó que la relación de áreas entre los tubos interno y externo y la concentración de medio soporte influencian los valores de velocidad de circulación del líquido, de la fracción volumétrica de aire y de la transferencia de oxígeno y se observaron y compararon características importantes de los medios de soporte.<hr/>Aerobic internal-loop reactors use active biomass attached in a supporting media (biofilm) with the advantage of retaining a big biomass concentration in a small physical space, removing carbonaceous matter and nitrogen in only one reactor. Liquid circulation occurs due to hydrostatic pressure difference produced by air injection in the riser. In biphasic conditions liquid circulation velocities, gas holdup and oxygen transfer coefficient in four different reactor configurations were studied. For the three-phase conditions, the same parameters in just one of those configurations were evaluated. Also, there were three granular supporting media characterized. On the other hand, the relationship between internal and external tube areas and supporting media concentrations influence the liquid velocity, gas holdup and oxygen mass transfer values and some important supporting media characteristics were observed and compared. <![CDATA[<B>Design and implementation of a strategy of predictive control of paddy rice drying</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600008&lng=en&nrm=iso&tlng=en Este artículo trata sobre la modelación y control del proceso de secado de arroz Paddy en silo inclinado usando técnicas de control predictivo. Para esto se usa un secador a escala 1:10 con capacidad de 25 kilos de grano, totalmente instrumentado donde se puede medir en línea la temperatura y humedad del grano de arroz y del medio ambiente. Además, permite medir y manipular el flujo y temperatura del aire de secado. Con el fin de diseñar el controlador, primero se obtiene un modelo dinámico basado en el principio de capa delgada, luego se diseña e implementa la estrategia de control predictivo, conocida como DMC (Dynamic Matriz Control) la cual utiliza la respuesta paso y repuesta libre del sistema para calcular la acción de control óptima. Como consecuencia de este proceso se obtienen resultados prometedores del uso de este tipo de tecnología en el secado de arroz Paddy: a) reducción del tiempo de secado, b) evitar la pérdida de masa por sobresecado, c) garantizar un secado más homogéneo y por lo tanto una mejora en la calidad del arroz y la productividad de la industria molinera de la Región.<hr/>In this paper we present a Model Predictive Controller (MPC) implemented in a rice drying process with inclined silo. A pilot system is used at scale of 1:10, and capacity of 25 kg. In this system temperature and humidity of the rice grains are measured as well as air humidity. Additionally, the flow and temperature of drying air are controlled and measured. In order to design the controller a model based on thin layer and physical first principles is obtained and validated. Then, a MPC controller is designed based on this model. The type of MPC controller used is Dynamic Matrix Control (DMC) which uses the system step and free responses to estimate the next optimal control input. As a result, a good performance of the controller is obtained, showing that this is a promising technology that can be used in the Paddy rice drying process. The results show improvements in: a) reduction in drying time and energy consumption, b) over drying is avoided, c) the drying process is homogeneous, hence the quality of rice grains is better. Consequently, a positive impact on the productivity of the milling regional industry can be reached. <![CDATA[<B>Nitrogen balance estimation in a subsurface flow constructed wetland planted with <I>Heliconia psittacorum</I> for domestic wastewater treatment</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600009&lng=en&nrm=iso&tlng=en La influencia de la vegetación (Heliconia psittacorum) y el principal mecanismo de eliminación de nitrógeno en un humedal construido de flujo subsuperficial (HFSS) fueron estudiados por la aplicación de un balance de N. Para ésto se construyeron seis unidades de HFSS a escala de laboratorio (microcosmos) que incluyeron lechos de grava plantados con Heliconia sp. y sin plantar (controles), sometidos a una carga de 5,68 g N m-2 d-1 y un tiempo nominal de retención de 1,0 día. Los resultados indicaron una mayor eficiencia de eliminación de la carga de N en los microcosmos plantados (29,6%) comparado con los sin plantar (24,3%). El balance de masas indicó que el principal mecanismo de eliminación de N fue la nitrificación/desnitrificación al eliminar el 66,7 y 69,7% del N eliminado en los microcosmos plantados y sin plantar, respectivamente. La acumulación en el medio de soporte eliminó el 21,4 y 22,0% del N, respectivamente. Mientras que una pequeña asimilación del N por la Heliconia sp. fue establecida (0,6%). Pese a la baja asimilación directa de N por parte de la planta, fue evidente que éstas contribuyeron indirectamente a la eliminación de N en los microcosmos plantados vía la translocación de oxígeno atmosférico y el ensamblaje de una comunidad microbiana más diversa en la rizósfera.<hr/>The influence of vegetation (Heliconia psittacorum) and the main nitrogen elimination mechanism were studied via the mass balance method in a subsurface flow constructed wetland (HFSS). Six HFSS lab-scale units (microcosms) were built and filled out vertically with gravel and coarse sand. Three of the lab-scale units were planted with Heliconia sp., and the remaining three were left unplanted and run as control units. All of the experimental units were operated with an organic surface load of 5.68 g N m-2 d-1, and a theoretical hydraulic retention time (HRT) of 1.0 day. Results showed a higher N load removal efficiency in the planted units (29.6%) compared to the unplanted ones (24.3%). The nitrogen balance showed that coupled nitrification/denitrification was the main N removal mechanism, since its contribution to the overall removal was 66.7 and 69.7% in planted and unplanted units, respectively. Meanwhile, N accumulation in the support media removed 21.4 and 22.0 % in planted and unplanted units, respectively. N assimilation via physiological activity of Heliconia sp. was responsible for only 0.6 % of the total removal. Despite this low removal rate, it was evident that plants contributed indirectly to N removal in the planted units via atmospheric oxygen translocation and the assemblage of a more diverse microbial community in the rizospheric habitat. <![CDATA[<B>Evaluation of models for the conversion of T-min rainfall distributions to an equivalent one-minute distribution for Colombia</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600010&lng=en&nrm=iso&tlng=en The design of microwave communication systems requires knowledge of the one-minute cumulative distribution of rainfall. However, since time series of rainfall fulfilling this constrain are not common, the conversion of a distribution obtained from time series with a longer integration time T (such as 30 or 60 minutes) into equivalent one-minute distribution has been proposed as an alternative. This paper reviews existing models for the conversion of cumulative distributions of rainfall and compares their predictions against a database of measured distributions from the Aburrá Valley in the department of Antioquia, with a view towards recommending a model suitable for the Colombian climate. Based on the results of the evaluation, the EXCELL RSC model represents a suitable alternative for rainfall rate predictions in the valley, and the best alternative for predictions in other regions in Colombia. This model would be useful for fade margin calculations for microwave systems, terrestrial or earth-to-space.<hr/>El disentilde;o de un sistema de comunicaciones que opera en frecuencias de microondas requiere el conocimiento de la distribución acumulada de probabilidad de la intensidad de lluvias, integrada cada minuto. Dado que este tipo de información es muy escasa, se ha propuesto como alternativa la conversión de distribuciones obtenidas usando series temporales con otros períodos de integración (como 30 o 60 minutos) a una distribución equivalente integrada cada minuto. En este artículo se presenta una revisión de varias metodologías para efectuar dicha conversión y una comparación de sus predicciones contra una base de datos de distribuciones medidas en el Valle de Aburrá (departamento de Antioquia) con miras a recomendar un modelo útil para las condiciones climáticas colombianas. Con base en los resultados de la evaluación, se ha determinado que el modelo Excell RSC representa una buena alternativa para uso en el valle de Aburra y es además aplicable a otras regiones en Colombia. <![CDATA[<B>Reconstruction of 3d video from 2d real-life sequences</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600011&lng=en&nrm=iso&tlng=en In this paper, a novel method that permits to generate 3D video sequences using 2D real-life sequences is proposed. Reconstruction of 3D video sequence is realized using depth map computation and anaglyph synthesis. The depth map is formed employing the stereo matching technique based on global error energy minimization with smoothing functions. The anaglyph construction is implemented using the red component alignment interpolating the previously formed depth map. Additionally, the depth map transformation is realized in order to reduce the dynamic range of the disparity values, minimizing ghosting and enhancing color preservation. Several real-life color video sequences that contain different types of motions, such as translational, rotational, zoom and combination of previous ones are used demonstrating good visual performance of the proposed 3D video sequence reconstruction.<hr/>En este artículo, se propone un método novedoso que permite generar secuencias de video en 3D usando secuencias de video reales en 2D. La reconstrucción de la secuencia de video en 3D se realiza usando el cálculo del mapa de profundidad y la síntesis de anaglifos. El mapa de profundidad es formado usando la técnica de correspondencia estéreo basada en la minimización de la energía de error global a partir de funciones de suavizado. La construcción del anaglifo es realizada usando la alineación del componente de color interpolándolo con el mapa de profundidad previamente formado. Adicionalmente, se emplea la transformación del mapa de profundidad para reducir el rango dinámico de los valores de disparidad, minimizando el efecto fantasma mejorando la preservación de color. Se usaron numerosas secuencias de video a color reales que contienen diferentes tipos de movimientos como traslacional, rotacional, acercamiento, y la combinación de los anteriores, demostrando buen funcionamiento visual de la reconstrucción de secuencias de video en 3D propuesta. <![CDATA[<B>A simplified evaluation of the reduced kernel to solve the radiation problem of a cylindrical antenna</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600012&lng=en&nrm=iso&tlng=en En el siguiente artículo se presenta una solución simplificada de las expresiones relacionadas con la radiación de una antena cilíndrica de alambre recto utilizando el método de los momentos con el así llamado kernel reducido o aproximado.<hr/>The following article presents simplified expressions regarding the radiation problem of a cylindrical straight antenna using the method of moments with the so-called reduced kernel or approximate. <![CDATA[<B>Feature extraction of facial action units combining kernel methods and independent component analysis</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600013&lng=en&nrm=iso&tlng=en Las expresiones faciales entregan información crucial acerca del comportamiento para estudios de emociones humanas, procesos cognitivos e interacción social. El trabajo descrito en este documento presenta una metodología para la caracterización de unidades de acción facial (AUs), que representan cambios sutiles de las expresiones faciales. La metodología se basa en métodos Kernel, para realizar un mapeo no lineal de los datos y buscar las direcciones de las proyecciones de los datos en el espacio característico mediante análisis de componentes independientes (ICA). La validación se realiza sobre la base de datos Cohn-Kanade. Se hace un preprocesamiento de las imágenes a través de ecualización del histograma, un blanqueamiento de los datos con análisis de componentes principales basado en Kernel (KPCA), de esta forma el mapeo en el espacio característico busca una estructura lineal de los datos de entrada, finalmente se aplica ICA para hacer que la distribución de los datos proyectados sea lo menos Gaussiana posible. El desempe ñ o alcanzado fue del 96.64% &plusmn;0.54 de exactitud para el reconocimiento promedio de tres combinaciones de AUs del rostro entero más rostros neutrales, se detectan principalmente cambios que ocurren entre transiciones rápidas de AUs que se manifiestan de forma instantánea. Aunque los resultados alcanzados no sobrepasan los mejores porcentajes reportados en el estado del arte actual, que son del orden del 97% de exactitud si se acercan mucho a estos, adicionalmente la metodología planteada permite reducir el tama ñ o del espacio característico ya que se representan los datos en términos de únicamente sus componentes independientes (ICs) de tal manera que se utilizan tan solo las variables que aportan mayor información, lo que permite disminuir la complejidad del clasificador.<hr/>The facial expressions give crucial information about the behavior of human emotion to study, cognitive processes, and social interaction. The work described in this paper presents a methodology for characterizing facial action units (AUs), which represents the subtle change of facial expressions, based on Kernels Methods perform a nonlinear maping of data and looking for directions to the projections of the data in feature space through independent component analysis (ICA). The methodology validation was done on Cohn-Kande database. Image preprocessing was done through histogram equalization, a whitening on data with Kernel Principal Component Analysis (KPCA), for that the mapped in feature space search a lineal structure of the input data, finally we applied ICA for make the projected distribution of data is at least possible Gaussian. The results were 96.64% accuracy for average recognition of three combinations of facial AUs of the whole face more neutral faces, was detected mainly changes that occur between rapid transitions of AUs are shown instantly. Although the results don't exceed the best rate reported in the current state of the art which are of the order 97% accuracy, if they are very approximate, additionally the proposed methodology can reduce the size of the feature space because they represent the data only in terms of independent components, so as to use only those variables that provided greater information, which reduce the complexity of the classifier. <![CDATA[<B>Detection and tracking of human movement based on the motion vectors estimation</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600014&lng=en&nrm=iso&tlng=en Este artículo presenta el desarrollo de un algoritmo para la detección y rastreo del movimiento de seres humanos con baja complejidad computacional, basado en la estimación de vectores de movimiento. El sistema propuesto es capaz de diferenciar entre movimientos permitidos y no permitidos, sin la intervención de ningún operador humano. Los resultados experimentales proporcionados muestran un funcionamiento adecuado del sistema propuesto.<hr/>This paper proposes a human and vehicle motion detection and tracking system, based on motion vectors, which is able to discriminate between allowed and not allowed movements without the intervention of any human operator. Evaluation results show the desirable features of proposed method. <![CDATA[<B>Optical fiber metrology to small displacements detection</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600015&lng=en&nrm=iso&tlng=en En este trabajo se presenta una metodología para la medida de deflexiones en el rango de las mieras en membranas termoneumáticas de silicio. El método se basa en la interferometría por fibra óptica con el cual se estudió el comportamiento estático de una membrana de silicio de 10 &micro;m de grosor, 5 &micro;m de lado y 300 &micro;m de bulk, la cual se pegó sobre un porta muestras de vidrio. Por medida estática se entiende la medida de la deflexión de las membranas considerando únicamente la respuesta de éstas a la fuente de radiación infrarroja que las estimula.<hr/>This work presents a methodology to measure deflections in the range of microns in thermo-pneumatic silicon micomembranes. This method is based on the fiber optic interferometry, which was used to study the static behavior of a silicon membrane of 10 &micro;m in thickness, 5 &micro;m in side length and 300 &micro;m in bulk, which was glued to a glass slide. Static behavior is defines as the membrane deflection measurement taking into account only its response to the infrared radiation energy that drives them. <![CDATA[<B>Semi-fragile watermarking based content image authentication scheme</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600016&lng=en&nrm=iso&tlng=en This paper presents a block-wise semi-fragile watermarking scheme for image content authentication, with tamper area localization and recovery capability. Before the watermark sequence is generated, the original image is divided into two regions: The Region of Interest (ROI) and the Region of Embedding (ROE), where the ROI is selected manually by the owner of the image and the ROE is rest of the whole image after subtracting region belonging to the ROI. The binary watermark of each ROI block is generated by the DC and the 6 lowest AC components in the zig-zag order of the DCT coefficients of these blocks. These extracted bit sequence are embedded into the LSB of the DCT coefficients of the corresponding ROE blocks which are indicated by a mapping list previously generated using a secret key. In the authentication process, the watermark sequence is extracted from the ROI blocks. Then it compared with the sequence extracted from the corresponding ROE blocks to determine if the ROI block has been altered; in this case the tampered ROI blocks are recovered replacing them by the extracted watermark sequence from ROE. Simulation results show that the reconstructed image quality and the watermark robustness to JPEG compression are better than the previously reported methods by other authors under the same conditions.<hr/>Este articulo presenta un algoritmo de marca de agua semi-frágil basado en el contenido de los bloques de la imagen para la autenticación de los mismos. Además el algoritmo propuesto tiene la capacidad de recuperar en su forma original los bloques detectados como alterados. Antes de generar la secuencia de marca de agua, la imagen original se divide en dos regiones: la región de interés (ROI) y la región de inserción (ROE), donde la ROI es seleccionada manualmente por el propietario de la imagen mientras que la ROE son todas las regiones de la imagen original fuera de la ROI. La generación de la marca de agua binaria consiste en extraer el coeficiente DC y los 6 primeros coeficientes AC en forma de zig-zag en el dominio DCT de cada bloque ROI. La marca de agua extraída es insertada en el bit menos significativo de los coeficientes DCT de frecuencia media de los 6 bloques ROE, los cuales son seleccionados por medio de una lista de mapeo generada usando una llave secreta. Para autenticar los bloques ROI, se extrae la marca de agua de éstos y de la ROE. Si la diferencia entre ambas secuencias de marca de agua es mayor a un umbral Th, entonces se considera que el bloque fue alterado y se reemplaza con el bloque reconstruido usando la marca extraída de la región ROE. Los resultados muestran una calidad superior de la imagen recuperada así como mayor robustez ante la compresión JPEG del algoritmo propuesto en comparación con los algoritmos propuestos en la literatura, probados bajo las mismas condiciones. <![CDATA[<B>Automatic selection of parameters in LLE</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600017&lng=en&nrm=iso&tlng=en Inmersión localmente lineal (LLE) es una técnica de reducción de dimensión no lineal que permite conservar la geometría local del espacio de alta dimensión, al realizar una inmersión de los datos a un espacio de baja dimensión. El algoritmo posee 3 parámetros libres que deben ser definidos por el usuario al momento de realizar la inmersión: el número de vecinos más cercanos k, la dimensión de salida de los datos m y el parámetro de regularización a. Este último sólo es necesario determinarlo cuando el número de vecinos elegido es mayor que la dimensión original de los datos, o cuando los puntos (datos) no están ubicados en posición general, pero juega un papel muy importante en el resultado de la inmersión. En este trabajo se propone un par de criterios que permiten encontrar el valor óptimo para los parámetros k y &alpha;, de manera que sea obtenga una inmersión que represente de manera fiel los datos del espacio de entrada. Con el fin de comprobar la eficacia de los criterios propuestos, se realizaron pruebas sobre dos bases de datos artificiales y dos bases de datos reales. Además, se realiza una comparación de los resultados contra métodos encontrados en el estado del arte.<hr/>Locally Linear Embedding (LLE) is a nonlinear dimensionality reduction technique, which preserves the local geometry of high dimensional space performing an embedding to low dimensional space. LLE algorithm has 3 free parameters that must be set to calculate the embedding: the number of nearest neighbors k, the output space dimensionality m and the regularization parameter a. The last one only is necessary when the value of k is greater than the dimensionality of input space or data are not located in general position, and it plays an important role in the embedding results. In this paper we propose a pair of criteria to find the optimum value for the parameters k and &alpha;, to obtain an embedding that faithfully represent the input data space. Our approaches are tested on 2 artificial data sets and 2 real world data sets to verify the effectiveness of the proposed criteria, besides the results are compared against methods found in the state of art. <![CDATA[<B>Multiple interacting bad data errors identification in state estimation using combinatorial optimization algorithms</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600018&lng=en&nrm=iso&tlng=en En este artículo se resuelve el problema de estimación de estado con presencia de errores de difícil detección usando algoritmos de optimización combinatorial. Se propone un procedimiento que combina la metodología clásica de estimación de estado con la teoría de puntos de apalancamiento, estos últimos se usan como factores de sensibilidad. La teoría de observabilidad se usa para penalizar la infactibilidad en la función objetivo. El modelo resultante se resuelve mediante las técnicas de optimización Búsqueda Tabú, Simulated Annealing, Particle Swarm y Algoritmo Genético Modificado Chu-Beasley. Con el fin de validar la metodología propuesta se utiliza como sistema de prueba el IEEE de 57 nodos. Los resultados obtenidos son de excelente calidad.<hr/>In this paper the state estimation problem including hard detection errors are solved using combinatorial optimization algorithms. A novel procedure that combines the classic estate estimation methodology with leverage points theory which are used like sensibility factors and the observability theory are used to penalize the infeasibility in the objective function. The resultant model is solved using several optimization techniques like Tabu Search, Simulated Annealing, Particle Swarm, and the modified genetic algorithm of Chu-Beasley. In order to prove the proposed methodology the 57 nodes IEEE test system is used. The results obtained presents excellent quality. <![CDATA[<B>Security middleware for IMS-WLAN interworking</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600019&lng=en&nrm=iso&tlng=en El 3GPP plantea una arquitectura de seguridad para el interworking WLAN-3GPP, sin embargo ésta presenta ineficiencias en el procedimiento de autenticación, lo que produce un mayor: consumo de recursos de radio, procesamiento en los dispositivos y retardo en la autenticación. Debido a esto, en este artículo se propone un middleware de seguridad que reduce los pasos en la autenticación del interworking WLAN-3GPP y asegura la señalización SIP entre el equipo de usuario (UE, User Equipment) y el Proxy CSCF (P-CSCF, Proxy - Call State Control Function) del subsistema multimedia IP (IMS, IP Multimedia Subsystem).<hr/>The 3GPP proposes security architecture for Interworking WLAN-3GPP. However, it presents inefficiencies in the authentication procedure, which bring a greater consumption of radio resources, processing on the devices and delayed authentication. Due to previous reasons, we propose a security middleware that reduces the steps in the authentication of the WLAN-3GPP interworking and ensures the SIP signaling between the user equipment and the first entry point to the IMS network (P-CSCF). <![CDATA[<B>From pre-conceptual schemas to OO-Method</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600020&lng=en&nrm=iso&tlng=en OO-Method (OOM), es un método basado en modelos orientados a objetos para la generación automática de código. Para la construcción de un producto de software empleando OOM, se debe partir desde los diagramas que propone este método. Esto requiere un gran esfuerzo por parte del analista quien, de manera subjetiva, debe elaborar dichos diagramas. Por otra parte, los Esquemas preconceptuales son diagramas previos a los esquemas conceptuales que permiten representar el conocimiento, presentan una sintaxis cercana a los lenguajes controlados y permiten obtener, automáticamente, diagramas de UML. En este artículo, aprovechando las ventajas anotadas para los Esquemas Preconceptuales, se propone un conjunto de reglas para la obtención de los diagramas de OOM a partir de dichos esquemas. Esta propuesta se ejemplifica con un caso de estudio.<hr/>OO-Method is an object-oriented method for automated code generation. In order to develop a software application by using OO-Method, the analyst must subjectively create the diagrams included in OO-Method. In this task the analyst must invest too much effort. On the other hand, Pre-conceptual Schemas are controlled-language-based diagrams for knowledge representation. Also, Pre-conceptual Schemas are previous diagrams to conceptual schemas and they are designed for automatically obtaining UML diagrams. In this paper, we take advantage of Pre-conceptual Schemas and we propose a set of rules for obtaining OO-Method diagrams from these Schemas. We also exemplify the proposal with a case study <![CDATA[<B>Communication and traceability game</B>: <B>a way to improve requirements elicitation process teaching</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600021&lng=en&nrm=iso&tlng=en Requirements elicitation process is important to guarantee the quality of software applications. In software engineering, requirements elicitation process has been taught by means of traditional methods. Games have been used to improve teaching of some issues in software engineering, but elicitation has not been the center of this way of teaching. As a way to deal with problems in requirements elicitation process teaching, we create in this paper "Communication and Traceability Game" and we summarize the results of applying this game to several groups of students.<hr/>El proceso de educción de requisitos es importante para garantizar la calidad de las aplicaciones. Este proceso se suele enseñar, en ingeniería de software, empleando métodos tradicionales. Los juegos al interior de la ingeniería de software se vienen usando para mejorar la enseñanza de algunos temas particulares, pero el proceso de educción no se abordó hasta el momento. Como una manera de lidiar con los problemas en la enseñanza del proceso de educción de requisitos, en este artículo se propone el "juego de la comunicación y la trazabilidad" y se compendian los resultados de la aplicación de este juego a varios grupos de estudiantes. <![CDATA[<B>Parameter optimization in general Scan methods</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600022&lng=en&nrm=iso&tlng=en El presente trabajo muestra una aplicación del diseño experimental al análisis de los parámetros de las técnicas Scan Lineal de detección de conglomerados, en su variante clásica y borrosa. Se utiliza un diseño experimental no paramétrico. El objetivo fundamental es estudiar la posible influencia de los valores de los parámetros: ancho de la ventana móvil y paso del Scan en ambas variantes del método, para obtener valores óptimos o cercanos a los óptimos.<hr/>The present work shows an application of Experimental Design to the methods for disease cluster detection: Classic Scan and Fuzzy Scan. A non parametric experimental design for two factors is used. The fundamental target is to study the influence of the values of the parameters: the length width and the Scan step in order to determine optimum values. <![CDATA[<B>Electronic voting protocol from bilinear pairings</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600023&lng=en&nrm=iso&tlng=en Desde hace dos décadas la votación electrónica ha sido un campo de investigación activo, el cual involucra el uso de sistemas de información y de esquemas criptográficos con la finalidad de reducir costos y errores humanos, así como incrementar la velocidad de procesamiento, sin descuidar la seguridad del proceso. Las propuestas existentes basan dicha seguridad en la dificultad de resolver problemas matemáticos tales como la factorización en números primos ó el problema de logaritmo discreto de la Criptografía de Llave Pública. En el presente artículo se describe un protocolo de votación electrónica que garantiza privacidad, transparencia y robustez mediante el uso de un esquema de Criptografía Basada en Identidad. El protocolo propuesto está dividido en cuatro fases principales: establecimiento, autenticación, votación y conteo, e involucra un modelo de responsabilidad distribuida, dónde t de n entidades son necesarias durante la etapa de conteo para descifrar los votos. El trabajo incluye una prueba de exactitud del funcionamiento del protocolo.<hr/>Electronic voting has been an active research area since two decades, which involves using information systems and cryptographic schemes in order to reduce costs and human mistakes as well as increase process speed, without discard its security. In the literature there exist some proposals, which are based on the difficult to resolve mathematical problems such as: prime factorization or discrete logarithm, both of them from Public Key Cryptography. In this paper we describe an electronic voting protocol that meets privacy, transparency and robustness by using a scheme from Identity Based Cryptography. The proposed protocol is divided in four main phases: set-up, authentication, voting and counting and involves a distributed responsibility model, with t out of n entities that are required during the counting phase to decrypt the votes. The paper includes a correctness test to show how the protocol works. <![CDATA[<B>Analysis and convergence of weighted dimensionality reduction methods</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600024&lng=en&nrm=iso&tlng=en We propose to use a Fisher type discriminant objective function addressed to weighted principal component analysis (WPCA) and weighted regularized discriminant analysis (WRDA) for dimensionality reduction. Additionally, two different proofs for the convergence of the method are obtained. First one analytically, by using the completeness theorem, and second one algebraically, employing spectral decomposition. The objective function depends on two parameters U matrix being the rotation and D diagonal matrix weight of relevant features, respectively. These parameters are computed iteratively, in order to maximize the reduction. Relevant features were obtained by determining the eigenvector associated to the most weighted eigenvalue on the maximum value in U. Performance evaluation of the reduction methods was carried out on 70 benchmark databases. Results showed that weighted reduction methods presented the best behavior, PCA and PPCA lower than 17% while WPCA and WRDA higher than 45%. Particularly, WRDA method had the best performance in the 75% of the cases compared with the others studied here.<hr/>En este trabajo se propone utilizar una función objetivo discriminante tipo de Fisher, para la reducción de la dimensionalidad, en el análisis de componentes principales ponderados (WPCA) y al análisis discriminante regularizado ponderados (WRDA). Además, se desarrollan dos pruebas de la convergencia del método. Primero analíticamente, usando el teorema de completitud, y una segunda prueba algebraica, empleando descomposición espectral. La función objetivo depende de dos parámetros: U matriz de rotaciones y D matriz pesos de características relevantes, respectivamente. Estos parámetros se calculan iterativamente, para maximizar la reducción. Las características relevantes fueron obtenidas determinando el vector propio asociado al valor propio con máximo valor en U. La evaluación del desempeño de los métodos de la reducción fue realizada sobre 70 bases de datos (benchmark). Los resultados mostraron que los métodos ponderados presentan un mejor comportamiento PCA y PPCA por debajo del 17% mientras que WPCA y WRDA por encima del 45%. Particularmente, el método WRDA tuvo el mejor funcionamiento en el 75% de los casos comparados con los otros estudiados en este trabajo. <![CDATA[<B>Hybrid Variable Neighborhood and Simulated Annealing Heuristic Algorithm to Solve RCPSP</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302010000600025&lng=en&nrm=iso&tlng=en En este artículo se presenta un algoritmo heurístico híbrido para resolver el Problema de Programación de Proyectos con Recursos Limitados (RCPSP). El algoritmo diseñado combina elementos de Recocido Simulado y Búsqueda en Múltiples Vecindarios. Adicionalmente, utiliza el método denominado Justificación, el cual es un método diseñado específicamente para el RCPSP. Para evaluar el desempeño del algoritmo se realizó un análisis estadístico para el ajuste de parámetros. Los resultados se comparan con los reportados en la literatura científica.<hr/>This paper presents a hybrid heuristic algorithm for solving the Resource Constrained Project Scheduling Problem (RCPSP). The algorithm designed combines elements of Simulated Annealing and Variable Neighborhood Search. Additionally, it uses the method called Justification, which is a method designed specifically for the RCPSP. To evaluate the performance of the algorithm, a statistical analysis for tuning the parameters has done. The results were compared with those reported in the scientific literature.