Scielo RSS <![CDATA[Tecnura]]> http://www.scielo.org.co/rss.php?pid=0123-921X20130003&lang=en vol. 17 num. 37 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<b>Today's links within technology</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300001&lng=en&nrm=iso&tlng=en <![CDATA[<b><i>Vision systems modelling in 2D and 3D</i></b>: <b><i>An approach to the control of manipulator robots</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300002&lng=en&nrm=iso&tlng=en Resumen El control servovisual de robots manipuladores ha sido un tema en evolución en los últimos años, especialmente en aplicaciones donde el ambiente es no estructurado o el acceso para un operador es difícil. Para diseñar este tipo de controladores se hace importante realizar simulaciones previas para ajustar los parámetros o tener una aproximación del comportamiento. En este trabajo se presentan dos diferentes modelos de sistemas de visión, enfocados a aplicaciones en el control de robots manipuladores. El modelado de las cámaras de video se obtendrá con la ya conocida proyección de perspectiva. Para validar los modelos se presentaran simulaciones de dos controladores servovisuales en 2D y 3D.<hr/>Abstract Visual servoing of robot manipulators has been an evolving issue in recent years, especially in applications where the environment is not structured or where access is difficult for operators. To design these controllers, previous simulations are important to adjust parameters or implement a behavioral approach. In this paper we present two different models of vision systems. The models focus on applications in the field of manipulator-robot control. The modeling of video cameras is obtained by using perspective projections. To validate the models, two servo visual controllers in 2D and 3D are simulated. <![CDATA[<b><i>Voltage stability margin estimation in a power system using artificial neural networks</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300003&lng=en&nrm=iso&tlng=en Resumen Debido al aumento de la carga y al creciente uso de energías alternativas en el sistema de potencia, este se ha vuelto más sensible a problemas de estabilidad de tensión. Si se considera que los métodos de análisis estático como el flujo de carga no evalúan de manera correcta la estabilidad de tensión, debido a que usan modelos simples para describir las componentes del sistema, y que los modelos dinámicos para el análisis de estabilidad de tensión son complejos y tienen un alto costo computacional, se evidencia la necesidad de desarrollar una metodología más precisa y eficiente. Se presenta un modelo basado en Redes Neurona-les Artificiales (ANN, del inglés Artificial Neural Networks); estas tienen la capacidad de aprender y extraer las principales características de un conjunto de datos. Pueden ofrecer respuestas correctas para aquellas entradas que presentan variaciones causadas por los efectos del ruido o por las distorsiones del medio. Debido a que las ANN tienen habilidad para cambiar su estructura interna durante el entrenamiento han sido utilizadas para el desarrollo de este trabajo como máquinas de estimación del margen de estabilidad de tensión del sistema de potencia a partir su estado. Los datos de entrenamiento se obtienen por medio de un flujo de carga que entrega las condiciones iníciales o las también conocidas variables de entrada a la red y luego, mediante funciones de energía, se obtienen los márgenes de estabilidad que para este caso son las salidas deseadas. Se muestran resultados para un sistema de prueba de cuatro nodos, donde la RN estima de forma cercana las estimaciones efectuadas mediante el uso de márgenes de estabilidad determinísticos.<hr/>Abstract Power systems have become more sensitive to voltage stability problems due to load growth and the increasing utilization of alternative energy. Voltage stability appears not to be properly evaluated by methods of static analysis, such as load flux, because these methods use simple models to describe the system's components. Moreover, dynamic models for voltage stability analysis require high computational cost. Considering this, there is a need of developing more efficient and accurate methodologies. This article shows a model based on Artificial Neural Networks (ANN). ANN is a technique of artificial intelligence inspired in the biological neural networks of the human brain. An ANN is capable of learning through experience and takes the main characteristics of a dataset. Additionally, such networks may offer correct answers for inputs that present variations due to noise effects or distortions in the environment. ANNs provide a switching behavior as a function of the environment, that is, they get an input dataset and transform it into a consistent output set. This represents the rationale behind using ANNs for the development of this work; in other words, ANNs allow the prediction of a voltage-stability margin in power systems using information about their state variables. The training datasets are obtained from the load flux method, which delivers the initial conditions (i.e. the network input variables). Results are obtained through an estimating NN based methodology and compared to the results obtained when using estimating margin deterministic methods in a 4-node tests system. <![CDATA[<b><i>Aplication of Schrodinger equation in low-dimensionality semiconducting heterostructures</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300004&lng=en&nrm=iso&tlng=en Resumen La investigación presentada en este artículo está orientada hacia el área de matería condensada en el campo de la física de semiconductores. En esta investigación se utilizan los principios básicos de la mecánica cuántica, en especial el de la aproximación de masa efectiva. El objetivo de este artículo es determinar las energías del estado fundamental, así como las energías de transición electrón-hueco cuando una heteroestructura semiconductora de GaAs-Ga1-x Al x As está inmersa en una barrera de Ga1-y Al y As, por la aplicación de una presión hidrostática. La metodología que se propone en el presente trabajo es solucionar analíticamente la ecuación diferencial de segundo orden de Schrodinger. Las soluciones encontradas permiten determinar las funciones propias de la ecuación diferencial y además las energias de transicion en el estado fundamental mediante la aplicación de la presión hidrostática. Los principales resultados fueron encontrados mediante el uso del software Mathematica 5.0, mostrando que en el regimen de confinamiento fuerte, para pequeños anchos del pozo de potencial de la heteroestructura semiconductora, el potencial de confinamiento con la presion es menor para la función de los portadores de carga (electrón-hueco). Sin embargo, se muestra que en el regimen de confinamiento débil los efectos de la presión hidrostática sobre las alturas de la barrera son más significativos, y las energías de los portadores disminuyen.<hr/>Abstract The research presented in the following paper concerns condensed matter areas in the feld of semiconductor physics. This research uses the basic principles of quantum mechanics, particularly effective mass approximation. The aim of this paper is to determine the energies of ground state as well as the energies of electron-hole transition when a semiconductor heterostructure GaAs-Ga1-xAlxAs is immersed in a barrier of Ga1-yAlyAs, by applying hydrostatic pressure. The methodology proposed in the present work analytically solves Schrodinger's second-order differential equation to find solutions and allow determining the corresponding differential equation together with the energies of transition in the ground state. This is accomplished through the application of hydrostatic pressure. The main results were obtained using software package Mathematica 5.0. Results indicate a regime of strong confinement for small widths of the potential well in semiconductor heterostructures, where the confinement potential lessens with pressure for the charge-carrier function (electron-hole). However, the findings demonstrate that, in the regime of weak confinement, the effects of hydrostatic pressure on the heights of the barrier are more significant, and there is also a reduction in carrier energies. <![CDATA[<b><i>Parameter estimation for an electric arc furnace model using Tikhonov regularization</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300005&lng=en&nrm=iso&tlng=en Resumen Este documento presenta una metodología para estimar los parámetros de un modelo de un horno de arco eléctrico usando regularización de Tikhonov. La regularización de Tikhonov es uno de los métodos de regularización usado más comúnmente. El modelo de horno de arco utilizado considera la naturaleza no lineal y altamente variable que exhibe este tipo de carga. Se ha utilizado el toolbox Regularization Tools desarrollado para Matlab que permite determinar el valor del vector de parámetros estimados de norma mínima. Los resultados obtenidos en simulación del modelo del horno de arco implementado en PSCAD son comparados con mediciones reales tomadas en la etapa más crítica de la operación del horno. Se muestra cómo el comportamiento del modelo del horno de arco con un ajuste apropiado de los parámetros, captura en un alto porcentaje las formas de onda de los voltajes trifásicos de fase en el secundario del transformador que energiza los electrodos; además, se obtienen corrientes de línea eficaces de arco eléctrico con errores no mayores al 2,8 % del valor real.<hr/>Abstract In this paper, we present a methodology for estimating the parameters of a model for an electrical arc furnace by using Tikhonov regularization. Tikhonov regularization is one of the most widely employed methods for regularization. The model proposed for an electrical arc furnace takes into account the highly nonlinear and time varying characteristic of this type of load. We use Regularization Tools (an open-source Matlab toolbox) to determine the value of an estimated-parameter vector with smaller norms. Results obtained through simulation of the model in PSCAD are compared to real measurements taken during the furnace's most critical operating point. We present models for the electrical arc furnace with appropriate parameter tuning, capturing the real three-phase voltage at the secondary of a furnace transformer with great detail. Results show a maximum error of 2,8 % when line current's root mean square error is applied. <![CDATA[<b><i>Modeling video transmission losses using SARIMA and ARIMA models</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300006&lng=en&nrm=iso&tlng=en Resumen Este artículo presenta los resultados obtenidos al representar las pérdidas en una transmisión de video digital por medio de modelos ARIMA y SARIMA, siguiendo la metodología Box-Jenkins y haciendo uso del lenguaje de programación R para la estimación de los coeficientes. Se hizo una comparación de estos dos modelos con el fin de determinar cuál es el más apropiado para representar la serie original y estimar valores futuros, encontrando que el modelo SARIMA presenta un mejor ajuste y predice de mejor manera el comportamiento de la misma.<hr/>Abstract This paper presents the results obtained by representing losses in a digital video transmission using ARIMA and SARIMA models. The experiments were conducted following the Box-Jenkins methodology and using programming language R for the estimation of coefficients. A comparison of these two models was conducted in order to determine what the most appropriate model was in order to represent the original series and estimate future values. The findings indicate that SARIMA provide better matching and better prediction of the original data set. <![CDATA[<b><i>Path-Loss characterizacion of the V2V propagation channel in a suburban environment</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300007&lng=en&nrm=iso&tlng=en Resumen El diseño de los futuros sistemas de comunicaciones vehiculares ha centrado la atención de la comunidad científica, los organismos de estandarización y fabricantes de vehículos durante estos últimos años como consecuencia de la introducción de los denominados sistemas de transporte inteligente y el gran potencial que tienen para mejorar las condiciones de seguridad en las carreteras, teniendo como propósito reducir el número de accidentes de tráfico y facilitar el flujo vehicular. Para diseñar, evaluar y optimizar las aplicaciones de los sistemas de transporte inteligente orientadas a la seguridad vehicular y basadas en sistemas de comunicaciones inalámbricos, es de vital importancia el conocimiento de las características del canal de propagación, en particular las pérdidas básicas de propagación. En este sentido, en el presente artículo se analizan las pérdidas de propagación en función de la distancia de separación entre los vehículos transmisor (Tx) y receptor (Rx). Con base en una campaña de medidas realizada a 700 MHz y 5,9 GHz en un entorno suburbano, de elevada densidad de tráfico rodado, se presentan resultados sobre el rango de variación del exponente de pérdidas y las características de desvanecimiento o variabilidad temporal de la señal recibida. Los resultados son comparados con otros estudios publicados en la literatura.<hr/>Abstract The design of future vehicular communication systems is receiving considerable attention from the scientific community and also from standard organizations and vehicle manufacturers due to the introduction of intelligent transportation systems (ITS). These concepts bring potential applications for improving traveling conditions in terms of road safety, aiming at reducing the number of traffic accidents as well as providing easy traffic flow. Moreover; in order to design, evaluate and optimize ITS applications oriented towards vehicular safety and based on wireless systems; knowledge of the propagation channel is vital, in particular path-loss conditions. In this context, this paper analyzes path loss in terms of transmitter (Tx) and receiver (Rx) separation distance. The analysis is based on experimental channel measurements carried out at 700 MHz and 5,9 GHz. Values for the path loss exponent and the standard deviation of shadowing are reported and compared with other results published in the literature. The measurement campaign was conducted in a suburban area characterized by high-traffic density. <![CDATA[<b><i>Biological signals storage system, with remote access and security parameters</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300008&lng=en&nrm=iso&tlng=en Resumen El presente artículo muestra cómo se planteó el diseño e implementación de un sistema de almacenamiento de señales biológicas con parámetros de seguridad, manejando dos escenarios importantes: por un lado el tratamiento de señales y por otro el desarrollo de aplicaciones de software para llevar a cabo plataformas de telemedicina, lo anterior debido a que actualmente en los ambientes hospitalarios surge la necesidad de transmitir remotamente estas señales con la mejor calidad posible para que el especialista proporcione diagnósticos efectivos en el menor tiempo posible. Dentro de su metodología, inicialmente fue propuesto el acondicionamiento de la señal ECG (electrocardiograma) y luego el tratamiento de la señal de temperatura. Actualmente se trabaja en la forma de onda de respiración para finalmente procesar la señal de presión sanguínea. En el procesamiento de señales se propusieron diferentes cálculos para la implementación de circuitos con componentes electrónicos discretos y de superficie, el software planteado se creó bajo la plataforma Java, incluyendo parámetros de seguridad como autenticación basada en conocimiento específico (nombre usuario, contraseña y respuesta a pregunta secreta), para luego una posterior visualización de varias señales ECG y temperatura asociadas a varios pacientes. La información adquirida es almacenada y gestionada de manera centralizada en el servidor del grupo de investigación en Tele-medicina de la Universidad Militar Nueva Granada -TIGUM, donde se desarrolló el proyecto. Adicionalmente el prototipo final permite incluir más protocolos, tecnologías de comunicación para la transmisión y recepción de datos, y parámetros de seguridad para la implementación de proyectos futuros.<hr/>Abstract This paper shows the design and implementation of a storage system with security parameters intended for biological signals. The system deals with two important aspects. On the one hand, signal processing; on the other hand, software application developments that support telemedicine platforms. The rationale behind the implementation of such systems is the current situations in hospital environments, where there is the need to transmit these signals remotely with the best possible quality so as to provide an effective specialist diagnosis in the shortest time possible. First, within this methodology, ECG conditioning signal was proposed; then, temperature signal processing was also proposed. Additionally, the project considers respiration waveforms, and blood pressure signals are also processed. Different calculations were proposed for signal processing in order to implement circuits with discrete and surface electronic components. The implemented software was created using the Java platform, including security authentication parameters based on specific knowledge (username, password and a secret question answer). This allowed subsequent visualization of several ECG and temperature signals associated with patients. The information captured is centrally stored and managed at the Military University Telemedicine Research Group - TIGUM server - where the whole project was developed. Additionally, the final prototype allows including more protocols, communication technologies for data transmission and reception, as well as security parameters for future implementation. <![CDATA[<b><i>Segmentation and parameterization of 2D lines based on mean shift clustering</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300009&lng=en&nrm=iso&tlng=en Resumen El presente artículo realiza una exposición de un algoritmo robusto implementado para la segmentación y caracterización de lecturas obtenidas a través un barrido realizado por un sensor láser, obteniendo los parámetros polares que definen los segmentos de las líneas rectas que describen el ambiente escaneado. Se propone una estrategia de Mean Shift Clustering, que utiliza la media de los puntos del barrido láser, enmarcados en una elipse orientable, como estimación del gradiente de la densidad de puntos dentro de la ventana. El agrupamiento se alcanza deslizando dicha elipse hacia zonas del espacio donde la densidad de puntos es máxima, y reorientándola hacia la dirección de mayor dispersión de datos. Cada conjunto de puntos agrupados es procesado por un algoritmo RANSAC (Random Sample and Consensus) modificado, este método consiste en la construcción de hipótesis del modelo a partir de subconjuntos de datos mínimos escogidos al azar, y la evaluación de su validez con el apoyo de todos los datos, a medida que se actualizan las densidades de probabilidad asociadas. Los parámetros de los segmentos detectados son estimados por una regresión de TLS (Total Least Squares), que minimiza la suma de cuadrados de las diferencias entre la función y los datos. El algoritmo ha sido evaluado en entornos de interior usando como plataforma móvil un robot Pionner 3DX equipado con un sensor láser SICK, obteniendo resultados satisfactorios en cuanto a la compacidad y error de los parámetros de las rectas detectadas. De igual forma, se realizaron pruebas con datos simulados de densidad constante, donde el algoritmo clásico de MSC presenta fallas, logrando notables mejoras en la segmentación y parametrización de las rectas.<hr/>Abstract This paper presents a robust algorithm that is implemented for segmentation and characterization of traces obtained through a sweep process performed by a laser sensor. The process yields polar parameters that define segments of straight lines, which describe the scanning environment. A Mean-Shift Clustering strategy that uses the average of laser scanning points set in an orient-able ellipse is proposed as an estimate of the density gradient of points within the window. Grouping is achieved by sliding this ellipse into areas of space where the density of points is high, and it is redirected towards the direction of greater data dispersion. Each grouped set of points is processed by a modified RANSAC (Random Sample and Consensus) algorithm. This method involves the construction of model assumptions from minimal data subsets chosen at random and evaluates their validity supported by the whole of data, while the associated probability densities are updated. The parameters of the detected segments are estimated by a TLS (Total Least Squares) regression, which minimizes the sum of squared differences between the function and the data. The algorithm is evaluated in indoor environments using mobile robot platform Pioneer 3DX (equipped with a SICK laser sensor), obtaining satisfactory results in terms of compactness and error parameters of the lines detected. Likewise, tests were conducted using simulated data with constant density (where the classic MSC algorithm performs poorly), achieving significant improvements in segmentation and line parameterization. <![CDATA[<b><i>Heavy metal pollution in the sediments accumulated on Bogotá - Soacha highway (Colombia)</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300010&lng=en&nrm=iso&tlng=en Resumen Los sedimentos viales acumulados en tiempo seco llevan consigo elementos metálicos que afectan los recursos hídricos cuando son transportados por la escorrentía, y deterioran la calidad del aire cuando son suspendidos por el viento y la turbulencia inducida por el tráfico. Este artículo presenta los resultados de la evaluación de la contaminación por metales pesados asociados con el sedimento vial de dos zonas (i.e., Zonas 1 y 2) del corredor Bogotá - Soacha en Colombia. El sedimento vial en cada zona de investigación se recolectó por barrido directo sobre una superficie de área de 0,25 m² y durante un periodo de cuatro meses. Se determinaron las concentraciones de Mn, Fe, Cu, Zn, As, Cd, Ba y Pb para la fracción de tamaño menor de 250 !m del sedimento vial por medio de espectrometría de absorción atómica de llama y de plasma inductivamente acoplado con espectrometría de masas. Los resultados sugirieron que el origen principal de los metales pesados fueron las fuentes móviles (por ejemplo, por desgaste de llantas, pastillas de frenos y autopartes). Adicionalmente, mostraron que las concentraciones de Pb y Zn fueron elevadas a partir de la legislación utilizada como referencia; con respecto de los suelos urbanos, los metales pesados que sobrepasaron los límites permisibles fueron los siguientes: Pb (21,7 % y 87,0 % de las veces en las Zonas 1 y 2, respectivamente) y Zn (84,8 % y 82,6 % de las veces en las Zonas 1 y 2, respectivamente).<hr/>Abstract Road sediments accumulated in dry weather carry metallic elements, which affects water resources when transported by runoff and deteriorates the air quality when suspended by wind and the turbulence induced by traffic. This paper presents the results of a pollution assessment on heavy metal particles associated to road sediment from two particular areas (i.e. Zones 1 and 2) of the Bogotá-Soacha highway (Colombia). Road sediment was collected in each area by direct sweep over a surface of 0.25 m² and for a period of four months. The concentration of Mn, Fe, Cu, Zn, As, Cd, Ba and Pb was determined per size fraction (less than 250 !m from road sediment). These figures were obtained by means of fame atomic absorption spectrometry and also by using inductively coupled plasma mass spectrometry. The results suggest that the main origin of heavy metals were the mobile sources (i.e. the wear of tires, brake pads and automotive parts). In addition, it is shown that the concentration of Pb and Zn was higher than that allowed by current regulations (used as reference). With regard to urban soils, heavy metals that exceeded the permissible limits were as follows: Pb (21.7 % and 87.0 % of the time in Zones 1 and 2, respectively) and Zn (84.8 % and 82.6 % of the time in Zones 1 and 2, respectively). <![CDATA[<b><i>Management model of distribution networks through UML and BPL</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300011&lng=en&nrm=iso&tlng=en Resumen En este artículo se propone un modelo de gestión del proceso de despacho en sistemas alimentados por generación eléctrica convencional y distribuida, implementando para ello un sistema automatizado que permita de manera dinámica adaptarse a escenarios de cargas variables, aleatoriedad de los parámetros de eficiencia y calidad de energía del sistema, restricciones técnicas, económicas y regulatorias, y la inclusión activa de agentes generadores distribuidos.<hr/>Abstract This paper proposes a model of the clearance process management in systems powered by conventional electric and distributed generation, there by implementing a system which allow to dynamically adapt to scenarios of varying loads, randomness of the parameters of efficiency and power quality of the system technical constraints, economic and regulatory, as well as the active participation of agents distributed generators. <![CDATA[<b><i>Living beings</i></b>: <b><i>source of inspiration for artificial design</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300012&lng=en&nrm=iso&tlng=en Resumen Muchas de las cosas "inteligentes" que se desean en robots, máquinas y en general en los sistemas construidos por el hombre, son muy bien resueltas por la naturaleza. Por tanto, es razonable esperar que imitando a la naturaleza se puedan lograr "soluciones inteligentes" a los problemas humanos. En este artículo se presenta un análisis del estado del arte con respecto al desarrollo del diseño artificial inspirado en la naturaleza, con especial interés en los seres vivos. El estudio toma como punto de partida el modelo POE (Phylogeny, Ontogeny and Epigenesis) estableciendo un marco de referencia tridimensional con tres ejes de desarrollo biológico: filogenético, ontogenético y epigenético. Sobre cada uno de ellos se realiza un estudio de las implementaciones hardware existentes, de sus características, ventajas y debilidades, a fin de establecer un mapa general del desarrollo tecnológico actual. Al final del artículo, se concluye que la implementación de este tipo de algoritmos inspirados en la naturaleza no solo es importante, sino también indispensable en la solución de muchos problemas complejos hoy en día.<hr/>Abstract Many of the "intelligent" features that we want in robots, machines and man-made systems, are already well implemented by nature. Therefore, it is reasonable to expect that, by imitating nature, "intelligent solutions" to human problems can be found. In this paper, we present a survey on the analysis of current developments connected to artificial design inspired by nature. Particular interest is devoted to living organisms. The study takes the POE model as the starting point, establishing a three-dimensional framework with three axes of biological development, namely phylogenetic, ontogenetic and epigenetic axes. For each of these axes, a survey of existing hardware implementations is conducted in order to gather their characteristics, strengths and weaknesses and establish a general map of the latest technological developments. Finally, we conclude that implementing this type of nature inspired algorithms is not only important but also indispensable in solving many complex problems today. <![CDATA[<b><i>Interface developed for the detection of sub-vocal speech</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300013&lng=en&nrm=iso&tlng=en Resumen Por medio de este artículo se explorarán las técnicas más sobresalientes utilizadas actualmente para la detección del habla sub-vocal tanto en personas con parálisis cerebral como para aplicaciones comerciales (por ejemplo, permitir la comunicación en lugares ruidosos). Las metodologías expuestas se ocupan de adquirir y procesar las señales del habla desde diferentes niveles de su generación, de esta manera se presentan métodos que detectan y analizan señales desde que estas son producidas como impulsos neuronales en el cerebro, hasta que llegan al aparato fonador ubicado en la garganta, justo antes de ser pronunciadas. La calidad de la adquisición y procesamiento dependerá de varios factores que serán analizados en las siguientes secciones. La primera parte de este artículo constituye una breve explicación del proceso completo de generación de voz. Posteriormente, se exponen las técnicas de adquisición y análisis de las señales del habla sub-vocal, para finalmente incluir un análisis de las ventajas y desventajas que estas presentan para su posible implementación en un dispositivo para la detección del habla sub-vocal o lenguaje silencioso. Los resultados de la investigación realizada demuestran cómo la implementación del micrófono NAM (Non-audible Murmur) es una de las alternativas que aporta mayores beneficios no solo para la adquisición y procesamiento de las señales, sino para la futura discriminación de los fonemas del idioma español.<hr/>Abstract This paper explores the most important techniques currently used to detect sub-vocal speech in people with cerebral palsy as well as for commercial purposes, (e.g. allow communication in very noisy places). The methodologies presented deal with speech-signal acquisition and processing. Signal detection and analysis methods are described throughout the whole speech process, from signal generation (as neural impulses in the brain) to the production sound in the vocal apparatus (located in the throat). Acquisition and processing quality depends on several factors that will be presented in various sections. A brief explanation to the whole voice generation process is provided in the first part of the article. Subsequently, sub-speech signal acquisition and analysis techniques are presented. Finally, a section about the advantages and disadvantages of the various techniques is presented in order to illustrate different implementations in a sub-vocal speech or silent speech detection device. The results from research indicate that Non-audible Murmur Microphone (NAM) is one of the choices that offer huge benefits, not only for signal acquisition and processing, but also for future Spanish language phoneme discrimination. <![CDATA[<b><i>Characterizing data stream using clustering algorithms</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300014&lng=en&nrm=iso&tlng=en Resumen El artículo tiene como objetivo presentar una introducción al proceso de minería de flujos de datos usando técnicas de agrupamiento, observando las limitaciones de las técnicas tradicionales y explicando las diferentes aproximaciones existentes en la literatura. Las principales tendencias en los diferentes algoritmos indican que la mayoría de ellos separan el proceso en dos fases: una fase online en la cual se realiza una sumarización de los datos del flujo adicional a la aplicación de funciones de decadencia para olvidar datos, y una fase ffiine, en la cual se ve la aplicación de técnicas de agrupamiento tradicionales para la obtención de los clúster solicitados por los usuarios. El resultado final del artículo es la selección de las características deseables de un algoritmo, basado en los sustentos teóricos de cada uno de los trabajos expuestos.<hr/>Abstract This paper presents introductory materials to datastream mining processes using clustering techniques. The limitations of traditional techniques are observed and the various approaches found in the literature are explained. The major trends in the different algorithms indicate that most applications separate the process into two phases; namely an online phase, which makes a data stream summarization in addition to the application of decay functions regardless of the data, and an offine phase, which is the application of traditional clustering techniques in order to obtain the cluster requested by users. The net result of this paper is a selection of desirable characteristics of an algorithm, based on the theoretical underpinnings of each of the works analyzed. <![CDATA[<b><i>IPv6 within an embedded system - design and implementation</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300015&lng=en&nrm=iso&tlng=en Resumen En este artículo se propone un procedimiento para la implementación de protocolos de nueva generación en un sistema embebido. El objetivo es demostrar que este se puede conectar a Internet mediante IPv6, dando a conocer los aspectos necesarios para su soporte y realizando la implementación de un servidor web como muestra de su funcionamiento. Se eligió un microcontrolador que permite el uso de Ethernet (Coldfre VI de Freescale), FreeRTOS para facilitar su manejo y el stack de protocolos uIP. Se encontró que es necesaria la implementación de un algoritmo adicional para el manejo de la capa de enlace y que no hay un estándar establecido ni metodología para su desarrollo en los distintos microcontroladores, por lo cual debe caracterizarse el hardware usado, considerar la inclusión de ciertos archivos y garantizar el desempeño de cada una de las capas, teniendo en cuenta el stack de protocolos usado.<hr/>Abstract This paper presents a procedure for the implementation of new-generation protocols in an embedded system. The aim is to show that such an implementation can be connected to the Internet via IPv6. This, for its part, reveals some necessary aspects for supporting the procedure and for actual implementation of a web server (as proof of successful operation). A microcontroller that allows the use of Ethernet (FreescaleColdfre VI) was selected to facilitate handling FreeRTOS and the uIP protocol stack. We found it necessary to write an additional algorithm for the management of the link layer. Since there is no established standard or methodology for these developments in different microcontrollers, characterization must be achieved depending on the particular hardware being used, including certain files that ensure the performance of each of the layers regarding the protocol stack in question. <![CDATA[<b>A piece of equipment for quality control in the baking industry - design and implementation</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2013000300016&lng=en&nrm=iso&tlng=en Resumen La productividad y la calidad han sido protagonistas en la búsqueda de mayores índices de competitividad en las organizaciones, esto permite su crecimiento con apoyo del desarrollo tecnológico. La reducida tecnología a la que acceden las industrias manufactureras y en especial las panificadoras las ha sometido a niveles bajo de competitividad. Con el objeto de fortalecer el vínculo universidad empresa y de implementar y socializar el conocimiento tecnológico para el crecimiento de las pymes, el Politécnico Colombiano Jaime Isaza Cadavid ejecutó el proyecto "Diseño y Desarrollo de un Equipo para el Control de Calidad en la en la industria panificadora", con el que busca estandarizar y mejorar los niveles de calidad del proceso de fermentación, critico en la elaboración del pan. Se recolectaron datos y se realizaron mediciones al producto durante y después del proceso de fermentación. Se analizaron las condiciones del proceso y las variables de mayor incidencia en la fermentación: temperatura y humedad. Los análisis estadísticos y de calidad demostraron la necesidad de estandarizar el proceso, sus especificaciones y las características de calidad y variables críticas (largo, ancho, altura) del producto por fabricar. Los resultados de los análisis iniciales permitieron identificar potenciales especificaciones y parametrizar con base en estas un equipo para controlar las variables del proceso mediante un escáner que de forma lineal toma imágenes de los productos en el túnel de fermentación, donde se lleva a cabo el proceso, manteniendo las condiciones requeridas, evitando la manipulación del producto y reduciendo en un 50% el tiempo de fermentación del pan. El equipo permite realizar mediciones precisas y registrar los datos con el fin de evitar la alteración de las condiciones del proceso en sus variables críticas, de esta manera se contribuye así a la fabricación de productos de la más alta calidad.<hr/>Abstract Productivity and quality have been important in the search for higher levels of competitiveness in organizations. This, together with technological development, has allowed organizations to grow. However, low technological development in manufacturing industries (especially bakeries) has led to low levels of competitiveness in Colombia. "Politécnico Colombiano JIC" implemented a project called "Design and development of a piece of equipment for Quality Control in the breadmaking industry" (also strengthening the bonds between "universities and the industry") in order to implement and socialize technological knowledge for the growth of SMEs. The project was aimed at standardizing and improving the quality levels of fermentation processes (which are critical in bread making). Once data was collected, the product was assessed during and after the process of fermentation. Process conditions were tested together with the variables of greatest incidence in fermentation, namely temperature and humidity. Statistical analysis and quality tests showed the need for standardization in terms of process design, product specifications and quality characteristics of the product to be manufacture (e.g. length, width and height). The results from initial analysis allowed identifying potential specifications as well as obtaining the parameters of a mechanism for controlling process variables. To accomplish this, pictures of sample products into the fermentation tunnel (where the process takes place while maintaining the required conditions) were taken using a linear scanner. By avoiding the handling of the product, bread fermentation time was reduced by 50%. The mechanism allows making accurate measurements and recording data by preventing alterations in the process conditions for critical variables, which contributes to high-quality manufacture.