Scielo RSS <![CDATA[Tecnura]]> http://www.scielo.org.co/rss.php?pid=0123-921X20170002&lang=en vol. 21 num. 52 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<b>A comparative study of five methods of harmonics compensation in active power filters</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200001&lng=en&nrm=iso&tlng=en Resumen Contexto: Una de las funciones de un filtro activo de potencia es calcular las consignas de corriente (i.e.: reducción de armónicos, corrección del factor de potencia, balancear las corrientes y voltajes) que compensen la fuente de alimentación. Existen en la literatura varios algortimos que realizan esta función. El objetivo de este artículo es presentar los resultados obtenidos sobre el funcionamiento de cinco algoritmos propuestos en la literatura, bajo condiciones de voltajes distorsionados. Método: Consiste en la implementación de los siguientes algoritmos: potencia reactiva instantánea; factor de potencia unitario; compensación perfecta de armónicos; algoritmo pqr; y marco de referencia síncrono, en el programa de simulación Matlab - Simulink. Luego, usando un sistema eléctrico compuesto por cargas lineales y no lineales con características similares a un circuito real, se calcula la distorsión armónica total, el valor eficaz de la corriente de línea y de su componente fundamental, y el factor de potencia en la fuente trifásica. Se tomarán valores antes y después de la conexión a la red del filtro activo de potencia, considerando cada uno de los algoritmos por separado y manteniendo las mismas condiciones en el sistema para cada uno de ellos. También se calculan otras cantidades en el sistema de potencia para realizar la comparación. Resultados: Se muestran las corrientes de la red de alimentación antes y después de la conexión del filtro activo de potencia, además de la distorsión armónica de las corrientes y el factor de potencia. También se presenta la forma de onda del voltaje de continua del inversor con cada uno de los algoritmos utilizados, para evaluar el desempeño de un controlador de tensión que requiere el filtro. Conclusiones: En condiciones de funcionamiento con voltajes distorsionados en la red de alimentación, el algoritmo con mejor desempeño es el de compensación perfecta de armónicos, ya que este utiliza un filtro pasa bajo para mitigar los efectos de los armónicos de los voltajes sobre el cálculo de las corrientes de compensación.<hr/>Abstract Context: One of the functions of an Active Power Filter (APF) is to calculate current set points (i.e. harmonic reduction, power factor correction and current and voltage balancing) that compensate the power source. There are several algorithms in the literature that perform this function, so the objective in this article is to present the results obtained from the implementation of five algorithms proposed in the literature, under conditions of distorted voltages. Method: The methodology consists of the implementation of the following algorithms: Instantaneous reactive power; unit power factor; perfect harmonic compensation; PQR algorithm; and synchronous frame of reference in the MATLAB simulation program. Then, we calculate the total harmonic distortion (THD), the effective value of the line current and its fundamental component, and the power factor (PF) at the three-phase source, using an electrical system composed of linear and non-linear loads with similar characteristics to a real circuit. We will take values before and after the connection to the network of the active power filter, considering each of the algorithms separately and maintaining the same conditions in the system for each of them. Other quantities are also calculated in the power system to make the comparison. Results: The main currents before and after the active power filter connection are displayed, in addition to the harmonic distortion of the currents and the power factor. We also present the waveform of the inverter continuous voltage with each of the algorithms used, in order to evaluate the performance of a voltage controller that requires filter. Conclusions: In operating conditions with distorted voltages in the power supply network, the algorithm with the best performance is the perfect harmonic compensation algorithm, since it uses a low-pass filter to mitigate the effects of the harmonics of the voltages on the calculation of the currents of compensation. <![CDATA[<b>Comparative analysis of threshold voltage extraction techniques based in the MOSFET gm/ID characteristic</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200002&lng=en&nrm=iso&tlng=en Abstract Context: In advanced ultralow-power devices, it is necessary to use the accuracy extraction procedures of the MOSFET threshold voltage to fully characterize the devices. These procedures are based in the measurement of the Tran-conductance efficiency (gm/ID) and its first derivative in function of the voltage gate source (d(gm/ID)/dVGS). In order to increase their independency respect to the non-zero drain source voltage (VDS ≠0) it is used a process to correct the error. Theoretically, VDS should be 0 V; however, the VDS is grater than 10 mV in the experimental setup in order to avoid electrical noise, but less than a certain maximum value for allowing the MOSFET operation in the linear region of the weak inversion. Objective: To compare the extraction procedure proposed by (MC Schneider et al., 2006) and the method proposed by (Rudenko et al., 2011) with a generic, controlled and coherent test scenario. Method: This paper proposes a test scenario based on the Advanced Compact MOSFET model (ACM) of a long channel MOSFET made in a standard 0.35 mm CMOS process, implemented numerically in MATLABâ. The concept of Power Error Correction (PEC) was used to compare the two processes numerically; it quantifies the sensitivity of the extraction process to the effect by the non-zero voltage value of the VDS in the experimental setup (i.e., NZ-DS effect). Results: The error correction procedure proposed by (Siebel et al., 2012, Schneider et al., 2006) estimates the NZ-DS effect better than the procedure proposed by (Rudenko et al., 2011), considering the average, maximum and minimum PEC obtained for both extraction methodologies for a long channel MOSFET fabricated in a standard CMOS process of 0.35 μm, when the VDS is less than 50 mV. Conclusions: The Vth extraction procedure proposed by (MC Schneider et al., 2006) is more robust than the method proposed by (Rudenko et al., 2011) regarding the NZ-DS effect.<hr/>Resumen Contexto: En los dispositivos de ultrabaja potencia son necesarios procedimientos precisos de extracción de voltaje de umbral del MOSFET. Estos se basan en la medición de la eficiencia de la transconductancia (gm/ID) y su primera derivada respecto al voltaje puerta-fuente (d(gm/ID)/ dVGS). Para aumentar en algunas decenas de mV la precisión del voltaje de umbral extraído, se recurre a un proceso de corrección de errores que disminuye la influencia del voltaje dreno-fuente (VDS) que teóricamente debería ser 0 V. Típicamente, en el montaje experimental, el VDS es mayor a 10 mV con el fin de evitar el ruido eléctrico, pero menor a un cierto valor máximo con el fin de permitir que el MOSFET siempre opere en su región lineal. Objetivo: Comparar el procedimiento de extracción propuesto por Schneider et al. (2006) y el método propuesto por Rudenko et al. (2011) con un escenario de prueba genérico, controlado y coherente. Método: Se implementó un escenario de prueba en el softwareMatlab® para un MOSFET de canal largo fabricado en un proceso estándar CMOS de 0,35 mm, usando el modelo Advanced Compact MOSFET (ACM). Para comparar los dos procesos de extracción se tomó el concepto de potencia de corrección del error (PEC), el valor de este cuantifica la sensibilidad del proceso de extracción con respecto al valor no 0V del VDS usado experimentalmente (i.e., efecto NZ-DS). Resultados: Considerando el promedio, el máximo y el mínimo PEC obtenido para ambas metodologías de extracción, el procedimiento de corrección de errores propuesto en Siebel, Schneider y Galup (2012) y Schneider et al. (2006) estima el efecto NZ-DS mejor que el procedimiento propuesto en Rudenko et al. (2011) para un MOSFET de canal largo fabricado en un proceso estándar CMOS de 0,35 μm, cuando el VDS es inferior a 50 mV. Conclusiones: El procedimiento de extracción de Vth propuesto por Schneider et al. (2006) es más robusto que el sugerido en Rudenko et al. (2011) con respecto al efecto NZ-DS. <![CDATA[<b>Further compression of focal plane array in compressive spectral imaging architectures</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200003&lng=en&nrm=iso&tlng=en Abstract Context: It is possible to capture High-resolution 3D hyper-spectral images in a single 2D image through techniques based on compressed sensing. A variety of architectures have proposed Compressive Spectral Imaging (CSI) technique during the last years. An optical camera designed to capture spatio-spectral information of the scene prints projections towards a Focal Plane Array (FPA) giving the capability of storing or transmitting them. Afterwards, the original image can be reconstructed via an 1(1) -norm-based optimization algorithm. The size in bytes of the FPA measurement is less than the original image; for that reason, this FPA is considered a 2D compressed version of the original 3D image. Objective: To perform a further compression of the FPA measurement for four CSI architectures, in order to increase transfer rates or to decrease storing sizes. Method: In this work, the design of the further compression using arithmetic coding is presented for four CSI architectures, and an inverse transformation is proposed. This transformation is applied to the FPA based on the structure of the optical filters and the coded apertures of the cameras used in the CSI, allowing an increasing in the compression rate. Results: Results show that the compression rate rises between 1 and 2 points in three of the architectures. Conclusions: Despite data loss in the process of transformation-quantification-compression-decompression of the FPA, the quality of the reconstructed data cube (expressed in terms of the PSNR between the reconstructed image and the original one) remains close to the original version with no further compression.<hr/>Resumen Contexto: Las imágenes híper-espectrales 3D de alta resolución pueden ser capturadas en una imagen 2D mediante técnicas basadas en "sensado compresivo" (compressive sensing, en inglés). Entre estas técnicas, hay una denominada Compressive Spectral Imaging (CSI), de la cual se han propuesto diversas arquitecturas en los últimos ocho años. Una cámara óptica especialmente diseñada captura la información espacio-espectral de la escena e imprime proyecciones en un plano focal 2D (Focal Plane Array, FPA). Estas muestras se pueden transmitir o almacenar; luego la imagen original puede ser reconstruida usando comúnmente un algoritmo de optimización de la norma l1. El tamaño en bytes del FPA es menor que la imagen original, y éste por lo tanto puede ser considerado una versión comprimida en 2D de la imagen original en 3D. Objetivo: Realizar una compresión adicional del FPA para cuatro arquitecturas CSI, para incrementar las velocidades de transmisión o disminuir tamaños de almacenamiento. Método: En este trabajo se presentan los resultados de esta compresión adicional usando la codificación aritmética y se propone una transformación inversa que se aplica al FPA con base en la estructura de los filtros ópticos y los códigos de apertura de las cámaras usadas en CSI, lo cual permite aumentar su factor de compresión. Resultados: Los resultados muestran que el factor de compresión aumenta entre 1 y 2 puntos en tres de las arquitecturas. Conclusiones: A pesar de que hay pérdidas de datos en el proceso de transformación-cuantificación-compresión-descompresión del FPA, para cada arquitectura CSI usada, la calidad del cubo de datos posteriormente reconstruido expresada en el PSNR entre la imagen original y la reconstruida, no difiere significativamente de la versión original. <![CDATA[<b>A quantitative and qualitative performance analysis of compressive spectral imagers</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200004&lng=en&nrm=iso&tlng=en Abstract Context: Spectral images (SI) contain spatial-spectral information about a scene arranging in a data cube, which often comprises a significant amount of data. However, traditional (SI) systems acquire data ignoring the high correlation between the measurements and the samples are redundant. Compressive spectral imaging systems compress spectral data in the acquisition step, so it allows reducing redundancy and the data amount. Recently, several spectral imaging systems have become available, providing new functionality for users and opening up the field to a wide array of new applications. For instance, the CASSI, SCSI, SSCS, and HYCA systems are four of the most outstanding systems. Methods: Some review works have provided comprehensive surveys of the available technologies and have shown how the new capabilities of spectral imaging approaches can be utilized. However, selecting a specific architecture requires a quantitative and qualitative comparison of these systems in the same scenarios. Results: This paper analyzes the qualitative and quantitative performance of these four compressive spectral imaging systems to evaluate them in the same scenarios. For that, the architectures are modeled as a system of linear equations; then, image reconstructions are accomplished through the same optimization approach, transmittance, coded aperture, and shot numbers. Conclusion: Results show that the performance of the SSCSI system attains better quality reconstruction in terms of PSNR.<hr/>Resumen Contexto: Las imágenes espectrales (SI) contienen información espacio-espectral acerca de una escena disponible en un cubo de datos que usualmente comprende una cantidad significativa de éstos. Los sistemas tradicionales de (SI) adquieren datos redundantes ignorando la alta correlación entre las mediciones y las muestras redundantes. Los sistemas de compresión de imágenes espectrales comprimen los datos espectrales en la etapa de adquisición, lo que permite reducir la cantidad de datos y la redundancia. Actualmente, existen varios sistemas de imágenes espectrales disponibles que proporcionan nuevas funciones para los usuarios y abren un amplio campo de nuevas aplicaciones. Por ejemplo, los sistemas de CASSI, SCSI, SSCS, y HYCA son cuatro de los más destacados. Método: La revisión de algunos trabajos provee amplios estudios de tecnologías disponibles y muestra cómo se pueden utilizar las nuevas capacidades de los enfoques de formación de imágenes espectrales. Sin embargo, para la selección de una arquitectura específica se requiere una comparación cuantitativa y cualitativa de estos sistemas en los mismos escenarios. Resultados: En este trabajo se analiza el rendimiento cualitativo y cuantitativo de estos cuatro sistemas de compresión de imágenes espectrales para evaluarlos en los mismos escenarios. Para ello, cada arquitectura se modela como un sistema de ecuaciones lineales y el proceso de reconstrucción de las imágenes se logra con el mismo enfoque de optimización transmitancia, código de apertura y número de proyecciones. Conclusión: Se muestra que el sistema SSCSI alcanza el mejor rendimiento en la reconstrucción con el valor más alto PSNR. <![CDATA[<b>Multichannel assignment using K-Means in cognitive radio networks</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200005&lng=en&nrm=iso&tlng=en Abstract Context: The developed scheme allows carrying out the assignment of several frequency channels (both contiguous and not contiguous) available to the secondary users that require a higher bandwidth, under an environment of equality. Objective: The following paper develops a multichannel assignment which allows taking in a more efficient way the spectral opportunities in cognitive radio networks. Method: The developed assignment model is composed by the K-Means algorithm, which is in charged of carrying out the grouping of channels through clusters for the best parameters, and another algorithm in charge of establishing an equal criteria for all the secondary users that wish to transmit. The reached results were evaluated with experimental spectral occupancy data taken from the GSM frequency band. The developed model was compared with the MFA-CRN algorithm. Results: The obtained measurements correspond to the average bandwidth, the average delay, and the fairness calculation in the assignment of several channels. The developed assignment model shows an improvement in the assignment of a higher transmission average bandwidth for each secondary user while maintaining the fairness criteria in the channel assignments. Conclusion: Despite the increasing in the number of handoffs, it is also observed that metrics such as average bandwidth, average throughput and average delay are never negatively impacted by this increase in handoffs.<hr/>Resumen Contexto: El esquema desarrollado permite realizar la asignación de varios canales de frecuencia tanto contiguos como no contiguos que se encuentren disponibles a usuarios secundarios que requieran un mayor ancho de banda, bajo un ambiente de equidad. Objetivo: El presente trabajo desarrolla un modelo de asignación múltiple de canales que permite aprovechar de forma más eficiente las oportunidades espectrales en redes de radio cognitiva. Método: El modelo de asignación desarrollado está compuesto por el algoritmo K-Means, encargado de realizar el agrupamiento de canales mediante clústeres para los mejores parámetros y otro encargado de establecer un criterio de equidad para todos los usuarios secundarios que deseen transmitir. Los resultados alcanzados se evaluaron con datos experimentales de ocupación espectral, capturados en la banda de frecuencia GSM. El modelo desarrollado fue comparado con el algoritmo MFA-CRN. Resultados: Las mediciones realizadas corresponden al ancho de banda promedio, el retardo promedio y el cálculo de fairness en la asignación de varios canales. El modelo desarrollado evidencia una mejora en la asignación de un mayor ancho de banda promedio de trasmisión para cada usuario secundario, manteniendo el criterio de equidad en la asignación de los canales. Conclusión: A pesar del aumento en el número de handoffs, se observa que métricas como ancho de banda promedio, throughput promedio y retardo promedio no se ven en ningún momento impactadas de manera negativa frente a este aumento de handoffs. <![CDATA[<b>Structural and pathological monitoring methodology for homes affected by landslides</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200006&lng=en&nrm=iso&tlng=en Resumen Contexto: En los últimos sesenta años los procesos de urbanización se han incrementado considerablemente. En gran parte de ellos, el número de habitantes de los denominados tugurios asciende a más del 50 % de la población y, adicionalmente, se encuentran localizados en zonas de riesgo. Objetivo: Determinar y evaluar la progresión mensual del índice de daño (ID) durante un periodo de cuatro meses a un grupo de viviendas ubicado en zona de ladera en el sector Altos de la Estancia en Bogotá, Colombia. Método: Las viviendas fueron clasificadas de acuerdo con su sistema estructural en seis grupos: mampostería confinada (grupo A), mampostería estructural (grupo B), mampostería no reforzada (grupo C), materiales provisionales (grupo D), pórticos en concreto reforzado (grupo E) y viviendas prefabricadas (grupo F) y se les aplicó la metodología propuesta por el Fondo para la Prevención y Atención de Emergencias (FOPAE). Resultados: En todos los grupos se observó un incremento constante en el ID; sin embargo, el grupo C presentó los valores más altos en el último muestreo: 2,6 % de las viviendas (ID alto) y 0,87 % (ID muy alto). En los demás grupos el ID observado fue menor y no se encontraron viviendas con registros clasificados como muy altos. Conclusiones: De acuerdo con los resultados, las viviendas construidas en mampostería no reforzada presentan un mayor grado de deterioro en periodos cortos de tiempo en comparación a aquellas construidas con otros sistemas estructurales.<hr/>Abstract Context: In the last sixty years urbanization processes have increased considerably. In many of them, the number of inhabitants of the so-called "slums" amounts to more than 50% of the population. In addition, they are located in areas at risk. Objective: To determine and evaluate the monthly progression of the Damage Index (ID, in Spanish) of a group of houses located in a hillside area in the "Altos de la Estancia" sector in Bogotá, Colombia, during a period of four months. Method: The houses were classified according to their structural system in six groups: confined masonry (group A); structural masonry (group B); unreinforced masonry (group C); provisional materials (group D); reinforced concrete porches (group E); and prefabricated houses (group F). And we applied the methodology proposed by the Fund for the Prevention and Attention of Emergencies (FOPAE). Results: There was a constant increase in the ID of all groups. However, group C presented the highest values in the last sampling (2.6% of the households had high ID and 0.87% very high). In the other groups the observed ID was lower and no houses were found with records classified as very high. Conclusions: According to the results, dwellings built in unreinforced masonry show a greater degree of deterioration in short periods of time compared to those constructed with other structural systems. <![CDATA[<b>Applying ARIMA model for annual volume time series of the Magdalena River</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200007&lng=en&nrm=iso&tlng=en Resumen Contexto: Los efectos del cambio climático, intervenciones humanas y características de los ríos, son factores que incrementan el riesgo en la población y de los recursos hídricos. Sin embargo, impactos negativos como inundaciones y desecación de ríos pueden ser identificados previamente mediante el uso de herramientas de modelación adecuadas. Objetivos: Se estima un modelo ARIMA para el análisis de series de tiempo de volúmenes anuales (millones de m³/año) en el río Magdalena usando registros de la estación Calamar (Instituto de Hidrología, Meteorología y Estudios Ambientales de Colombia-Ideam), buscando la compatibilidad entre la hipótesis de modelación y los datos observados en el río. Métodos: El modelo ARIMA es considerado uno de los enfoques más implementados en hidrología y estudios relacionados con variabilidad climática dado que considera registros no estacionarios. Resultados: El pronóstico de volumen máximo del río Magdalena para los años 2013 a 2024 oscila entre 289.695 millones de m³ y 309.847 millones de m³. El pronóstico de volumen mínimo para los años de 2013 a 2024 oscila entre 179.123 millones de m³ y 157.764 millones de m³ con una tendencia de decrecimiento de 106 millones de m³ en 100 años. Conclusiones: Los resultados de la simulación con el modelo ARIMA, comparados con los datos observados, muestran un ajuste adecuado de los valores mínimos y máximos. Esto permite concluir que, aunque estos modelos no simulan el comportamiento exacto en el tiempo, son una buena herramienta para aproximar eventos mínimos y máximos.<hr/>Abstract Context: Climate change effects, human interventions, and river characteristics are factors that increase the risk on the population and the water resources. However, negative impacts such as flooding, and river droughts may be previously identified using appropriate numerical tools. Objectives: The annual volume (Millions of m³/year) time series of the Magdalena River was analyzed by an ARIMA model, using the historical time series of the Calamar station (Instituto de Hidrología, Meteorología y Estudios Ambientales de Colombia-IDEAM), and looking for matching the modelling hypothesis with the data measured in the river. Methods: The ARIMA model is considered one of the most implemented approaches in hydrology and studies related to climatic variability because it considers non-stationary information. Results: The maximum volume forecasted of the Magdalena River from 2013 to 2024 oscillates between 289,695 million m³ and 309,847 million m³. The minimum volume forecast for the same period ranges from 179,123 million m³ to 157,764 million m³, with a decreasing trend of 106 million m³ in 100 years. Conclusions: The simulated results obtained with the ARIMA model compared to the observed data showed a fairly good adjustment of the minimum and maximum magnitudes. This allows concluding that it is a good tool for estimating minimum and maximum volumes, even though this model is not capable of simulating the exact behaviour of an annual volume time series. <![CDATA[<b>Dispatch prioritization using fuzzy AHP and Topsis</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200008&lng=en&nrm=iso&tlng=en Resumen Contexto: La limitación de recursos en las organizaciones a la hora de realizar los despachos de producto terminado, desde los centros de producción hacia las zonas de consumo, hace que sea importante definir con claridad las prioridades, de manera que dichos recursos puedan utilizarse eficientemente y garanticen los más altos niveles de satisfacción a los clientes. Método: En este sentido, se ha desarrollado una propuesta para priorizar los despachos de producto terminado desde un centro de distribución hacia n bodegas que involucra las herramientas multicriterio AHP difuso y Topsis. La propuesta permite definir una serie de criterios a considerar a la hora de realizar los despachos y, mediante la herramienta AHP difuso, ponderar dichos criterios dado que no todos tienen la misma importancia a la hora de tomar la decisión. Por otro lado y considerando que cada punto de destino posee unos valores diferentes de dichos indicadores se utiliza el Topsis para generar un ranking que permita establecer la prioridad a la hora de los despachos. Resultado: La metodología propuesta ha sido aplicada en un caso de estudio y se ha encontrado que permite realizar la priorización de los despachos de manera que las bodegas más importantes, según el conjunto de criterios establecidos, son las primeras que deben ser atendidas. Conclusiones: Esta metodología puede ser replicable a cualquier organización siempre y cuando se cuente con las personas involucradas y la claridad frente a los objetivos organizacionales de la compañía.<hr/>Abstract Context: The organizations present a limitation in resources when making finished product shipments from the product centers to the areas of consumption. This limitation makes it important to clearly define priorities so that those resources can be used efficiently and ensure high levels of customer satisfaction. Method: We developed a proposal to prioritize the shipments of finished product from a distribution center to n warehouses. It involves the fuzy AHP and Topsis multi-criteria tools. The Fuzzy AHP tool allows defining a series of important criteria when making the dispatches. Additionally, it allows weighing these criteria since not all have the same importance when making the decision. Finally, we used Topsis to generate a ranking that allows us to establish the priority of dispatches, considering that each destination warehouse has different values for those criteria. Results: The proposed methodology was applied to a case study. We found that it prioritizes the dispatches so that the most important warehouses, according to the set of established criteria, are the first to be met. Conclusions: The proposed methodology can be replicated in different contexts and for any organization as long as there are people involved and the objectives of the of the company are clear. <![CDATA[<b>Parallel and distributed processing in two SGBDS</b>: <b>A case study</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200009&lng=en&nrm=iso&tlng=en Resumen Contexto: Una de las estrategias para la gestión de grandes volúmenes de datos es la computación distribuida y en paralelo. Entre las herramientas que permiten aplicar estas características se encuentran algunos sistemas de gestión de bases de datos (SGBD), como Oracle, SQL Sever y DB2. Método: En este artículo se presenta un caso de estudio donde se evalúa el rendimiento de una consulta SQL en dos de estos SGBD. La evaluación se hace mediante diversas formas de distribución de los datos en una red computadores y con diferentes grados de paralelismo. Resultados: Aunque son necesarias pruebas más exhaustivas y con mayor variedad de consultas, se evidenciaron las diferencias de rendimiento entre los dos SGBD analizados. Conclusiones: Las diferencias en rendimiento de los dos SGBDs analizados muestran que a la hora de evaluar este aspecto, se deben considerar las particularidades de cada SGBD y el grado de paralelismo de las consultas.<hr/>Abstract Context: One of the strategies for managing large volumes of data is distributed and parallel computing. Among the tools that allow applying these characteristics are some Data Base Management Systems (DBMS), such as Oracle, DB2, and SQL Server. Method: In this paper we present a case study where we evaluate the performance of an SQL query in two of these DBMS. The evaluation is done through various forms of data distribution in a computer network with different degrees of parallelism. Results: The tests of the SQL query evidenced the performance differences between the two DBMS analyzed. However, more thorough testing and a wider variety of queries are needed. Conclusions: The differences in performance between the two DBMSs analyzed show that when evaluating this aspect, it is necessary to consider the particularities of each DBMS and the degree of parallelism of the queries. <![CDATA[<b>Technological diagnosis of the use of programmable devices in the boyaca industry</b>: <b>Case study - panela's agroindustrial chain</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2017000200010&lng=en&nrm=iso&tlng=en Resumen Contexto: En este artículo se describen los resultados de un proceso de diagnóstico tecnológico tendiente a identificar el nivel de incorporación de los dispositivos programables (microcontroladores) y de los dispositivos de lógica programable (CPLD y FPGA) en los procesos productivos del sector agroindustrial de la panela, en el departamento de Boyacá. Cabe resaltar que el sector agroindustrial es uno de los que más aportan al producto interno bruto del departamento y es uno de los más priorizados en términos del potencial de negocios y entorno económico favorable de acuerdo con el Plan Estratégico Departamental de Ciencia, Tecnología e Innovación del Departamento de Boyacá. Método: La metodología empleada consistió en obtener un inventario tecnológico (máquinas, equipos e infraestructura informática) e identificar los activos tecnológicos de las empresas relacionadas. Resultados: Para la fase de recolección de información se visitaron cuatro empresas productoras de panela ubicadas en la hoya del río Suarez, de las cuales se encontró que solo una tienetienen un alto grado de automatización en sus procesos de producción, mientras que las otras presentan uno muy bajo o ninguno. La revisión de literatura evidenció que existen varias publicaciones en revistas indexadas en las que se describen importantes aportes al desarrollo del sector agroindustrial de la panela, aunque ninguno es realizado por universidades del departamento. En la etapa de análisis se identificaron las debilidades y oportunidades de las empresas del sector panelero en Boyacá. Conclusiones: Todo lo anterior permitió definir un conjunto de propuestas de incorporación de las tecnologías programables para el desarrollo de proyectos de investigación, encaminados a cubrir las necesidades reales del sector panelero del departamento de Boyacá, tanto en el mejoramiento de los procesos de producción como en el de las condiciones de trabajo de las personas dedicadas a estas labores.<hr/>Abstract Context: This paper describes the results of a technological diagnostic process aimed to identify the level of incorporation of programmable devices (e.g. microcontrollers) and programmable logic devices (e.g. CPLDs and FPGAs) in the productive processes of the panela agro-industrial sector in the Department of Boyacá. It should be noted that the agro-industrial sector is one of the largest contributors to the gross domestic product of the department and is one of the most prioritized in terms of business potential and favorable economic environment according to the Departmental Strategic Plan for Science, Technology and Innovation of the Department of Boyacá. Method: The methodology used consists on to obtain a technological inventory (machines, equipment and IT infrastructure) and identify the technological assets of the related companies. Results: During the information collection phase, four panela producer companies were visited, all of them located in the Hoya del Rio Suarez region, of which it was found that only one presents a high degree of automation of its production processes, while the others have a very low or no automation. The literature review evidenced that there are several publications in indexed journals that describe important contributions on the development of the agro-industrial sector of panela, although none of them are made by universities of the department. In the analysis stage, the weaknesses and opportunities of the companies dedicated to producing panela in Boyacá were identified. Conclusions: All of the above allowed defining a set of proposals for the incorporation of programmable technologies in the development of research projects aimed at meeting the real needs of the companies producing panela in the Department of Boyacá, both in the improvement of production processes as in the working conditions of the persons devoted to these tasks.