Scielo RSS <![CDATA[Tecnura]]> http://www.scielo.org.co/rss.php?pid=0123-921X20160004&lang=en vol. 20 num. 50 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<b>Effect of the selected seismic energy dissipation capacity on the materials quantity for reinforced concrete walls</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400001&lng=en&nrm=iso&tlng=en RESUMEN Contexto: Para el diseño de muros estructurales de concreto reforzado, la normativa sismoresistente en Colombia permite, en función de la amenaza sísmica del sitio, optar por uno de tres posibles grados de capacidad de disipación de energía (mínima, moderada y especial). Sin embargo, la práctica empleada es la de adoptar el menor grado acorde a la amenaza sísmica. Método: En este trabajo se realizó un estudio analítico del efecto del grado de capacidad de disipación de energía seleccionado durante el diseño de muros estructurales de concreto reforzado, en las cantidades de obra de la estructura y en la capacidad de desplazamiento. El estudio se centró en zonas de amenaza sísmica baja, ya que permite explorar y comparar los tres grados de disipación de energía. En el estudio se incluyeron otras variables como la altura total del muro, el área tributaria y la cuantía mínima de refuerzo adoptada para el alma del muro. Resultados: la cantidad total de acero requerida para los muros con capacidad moderada y especial corresponde, en promedio, a un 77% y 89%, respectivamente, de la cantidad requerida para los muros con capacidad mínima. Conclusiones: es posible lograr reducciones en el peso total de acero requerido al emplear grados de capacidad de disipación moderada y especial comparado con el uso de capacidad de disipación mínima. Además, con esta estrategia se lograr un incremento significativo en la ductilidad del muro.<hr/>ABSTRACT Context: Regarding their design of reinforced concrete structural walls, the Colombian seismic design building code allows the engineer to select one of the three seismic energy dissipation capacity (ordinary, moderate, and special) depending on the seismic hazard of the site. Despite this, it is a common practice to choose the minor requirement for the site because it is thought that selecting a higher requirement will lead to larger structural materials amounts and, therefore, cost increments. Method: In this work, an analytical study was performed in order to determine the effect of the selected energy dissipation capacity on the quantity of materials and ductility displacement capacity of R/C walls. The study was done for a region with low seismic hazard, mainly because this permitted to explore and compare the use of the three seismic energy dissipations capacities. The effect of different parameters such as the wall total height and thickness, the tributary loaded area, and the minimum volumetric steel ratio were studied. Results: The total amount of steel required for the walls with moderate and special energy dissipation capacity corresponds, on average, to 77% and 89%, respectively, of the quantity required for walls with minimum capacity. Conclusions: it is possible to achieve reductions in the total steel required weight when adopting either moderated or special seismic energy dissipation instead of the minimum capacity. Additionally, a significant increment in the seismic ductility displacements capacity of the wall was obtained. <![CDATA[<b>Development and testing of a chemical sensor of micro-structured optic fiber for meassuring carbon dioxide concentrations</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400002&lng=en&nrm=iso&tlng=en RESUMEN Objetivos: Desarrollar un sensor de fibra óptica para la medición de CO2, medir las variaciones del índice de refracción de un medio rico en CO2 a través de cambios de presión y de temperatura controlados, y comparar el comportamiento del índice de refracción experimental con respecto al índice de refracción teórico calculado. Materiales y métodos: Se utilizó fibra microestructurada con núcleo hueco con recubrimiento sólido de sílice, con diámetros internos de 48 y 56 micrómetros, y se seleccionó dimetilformamida (DMF) como líquido conductor de luz, para la fabricación del sensor. El llenado de la fibra se hizo por presión; se realizaron los procesos de emenda por fusión, emenda por pegante de alta temperatura y emenda mecánica, para la conectorización de la fibra. Durante el proceso de variación de temperatura y presión de la cámara de CO2, el índice de refracción se midió mediante un refractómetro. Resultados: Se obtuvieron los perfiles de índice de refracción con respecto a la temperatura en los ciclos de enfriamiento y calentamiento, y los registros puntuales de los 5 puntos termodinámicos evaluados; se obtuvo el cálculo del índice para dichos cinco puntos y se calculó el porcentaje de error del índice experimental. El porcentaje de error está dentro del rango de 0,016% a 0,03%. Conclusiones: Fue posible medir la transmisión de luz blanca a través de un fluido en diferentes fases, y se registro un cambio significativo en el índice de refracción en cada cambio de fase mediante el sensor fabricado.<hr/>ABSTRACT Objectives: The present study focused on the development of a optic fiber sensor for carbon dioxide (CO2), the measuring of variations of the refractive index of a CO2 medium undergoing controlled changes of temperature and pressure, and comparing this experimental refractive index with a calculated theoretical refractive index. Materials and methods: For the making of the optical sensor, we used samples of 48 to 56 micrometers inner diameter micro-structured optic fiber with a solid silica covered hollow center; and we selected dimethilformamide as the light conductor fluid. The fiber was filled with pressure; the connectrorization of the fiber was made with the fussion, the high-temperature afhesive, and the mechanical processes. We use a refractometer for measuring the refractive index during the temperature and pressure change processes in the CO2 chamber. Results: Profiles of the refractive index vs. temperature in cooling and heating cycles were obtained, as well as the punctual measures of the refractive index in five fixed thermodynamic points tested; the calculation for the theoretical refractive index for these points was obtained, and was compared with the experimental ones. The percentage of error of the experimental refractive index was estimated between 0.016% and 0.03%. Conclusions: We achieved the measuring of transmission of white light through a fluid in different phases, and we registered significant changes in the refractive index in each phase change using the fabricated optic sensor. <![CDATA[<b>Finite Element Analysis Using a Cosserat Linear Elastic Continuum</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400003&lng=en&nrm=iso&tlng=en RESUMEN Contexto: Los resultados experimentales en materiales granulares muestran que el comportamiento esfuerzo deformación tiene dependencia con la escala de análisis, sin embargo, debido a las supocisiones intrínsecas que tiene la mecánica del medio continuo, los análisis de elementos finitos basados en el continuo de Boltzmann no permite tener en cuenta longitudes características en su formulación que refleje la escala. Método: En este trabajo se presenta la formulación especializada de los elementos finitos para un problema de deformación plana para el continuo de Cosserat. Se presentan los grados de libertad de un elemento finito cuadrilatero y se deduce el operador diferencial para obtener el vector de deformación, su función de forma, la matriz de interpolación, la matriz de rigidez y el vector de fuerza nodal. Finalmente se implementa el continuo de cosserat con el elemento descrito en un programa de elementos finitos codificado por los autores. El programa se ejecuta para resolver el problema de esfuerzos y deformaciones en una capa homogenea de material con comportamiento lineal elástico. Resultados: Se obtiene las diferencias entre los componentes de esfuerzos y deformaciones de corte entre el continuo convencional y el de Cosserat junto con la aparición de momentos a nivel de punto de Gauss. Conclusiones: La deducción e implementación del continuo de Cosserat permite un análisis de elementos finitos alternativo al del continuo Convencional con la posibilidad de introducir una longitud característica en su formulación para tener en cuenta los efectos de escala y rotaciones que se observan en materiales granulares.<hr/>ABSTRACT Context: Experimental results show that the stress-strain behavior of granular materials depends upon the scale analysis. However, due to the intrinsic assumptions of the mechanics of a continuum medium, the analysis of finite elements based on the Boltzmann´s continuum does not allow to consider characteristic lengths in its formulation to reflect the scale effect. Method: This work presents a finite element formulation to analyze plane-strain linear problems using the Cosserat continuum. The degrees of freedom of a four-node quadrilateral finite element are presented and the differential operator is derived to obtain the deformation vector, function form, interpolation matrix, stiffness matrix and nodal load vector. Finally, the Cosserat continuum with the aforementioned element is implemented in a finite element software coded by the authors. The software is used to solve a stress-strain problem of a homogeneous layer with a linear elastic behavior. Results: The differences of the stress and shear strain responses between the conventional and the Cosserat continuum along with the moments acting at the Gauss point level are obtained. Conclusions: The derivation and implementation of the Cosserat continuum provides an alternative finite element analysis to the conventional continuum, along with the advantage of introducing a characteristic length in the formulation to account for the scale effects and rotations observed in granular materials. <![CDATA[<b>Identifying patterns of climate variability from principal component analysis - PCA, Fourier y k-means clustering</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400004&lng=en&nrm=iso&tlng=en RESUMEN Contexto: Una investigación mediante el Análisis de Componentes Principales (APC) se llevó a cabo para identificar la variabilidad y los patrones climáticos de dos importantes ciudades del Caribe Colombiano. Método: Para el desarrollo de este trabajo se empleó información satelital de resolución temporal trihoraria de 35 años (1980-2014) y se efectuó escalamiento espacial mediante información in situ para dos ciudades en Colombia (Cartagena y Barraquilla). Resultados: Los resultados de correlación superiores al 80% permitieron efectuar un adecuado ajuste para el análisis de información de velocidad de viento y temperatura ambiente. Para cada una de las 4 series de tiempo se construyó una matriz de empotramiento y de desfase con el objetivo de aplicar análisis de componentes principales o conocido también como análisis espectral singular. Fueron identificados los componentes principales cuya representatividad es inmediatamente superior al 70% para la temperatura y para el viento en ambas ciudades. Se efectuó un análisis de Fourier a la velocidad del viento y la temperatura y se detectaron modos de oscilación similares a los modos de oscilación (componentes principales) detectados mediante el APC. Conclusiones: Se encontró una variabilidad diurna para temperatura, y variabilidad diurna del viento para la ciudad de Cartagena, explicada por las brisas de mar y de tierra. Adicionalmente se encontró variabilidad trimestral asociada a las oscilaciones Maden Julian, variabilidades semestrales, anuales, y variabilidad de 6 años relacionada con el fenómeno del Niño. Finalmente mediante análisis de clúster se identificaron dos patrones climáticos en las zonas de estudio.<hr/>ABSTRACT Context: Is achieved a research through Principal Component Analysis (PCA) for determining the variability and climate patterns of two important cities in the Colombia Caribbean. Method: This research used satellite data with three hourly resolution contained in a 35 year data set (1980 to 2014), and a spatial scaling was performed using information related to Cartagena and Barranquilla cities, located in the north of Colombia. Results: The correlation results, above 80 %, show an appropriate adjustment for the information analysis of wind speed and temperature. Time lag matrixes were built for the time series with the aim of applying the Principal Component Analysis (PCA), known as Singular Spectrum Analysis. The main components were identified, which represent more than 70% of the temperature and the wind data in both cities. A Fourier analysis for the wind speed and the temperature allowed identifying similar oscillation modes (main components) detected by the PCA. Conclusions: Sea and land breezes explain the identified diurnal temperature and wind speed variability in Cartagena. Additionally were observe a quarterly variability associated with fluctuations Maden Julian, semiannual, annual, and 6-year variability associated with ENSO. Finally, the cluster analysis allowed the identification of two-climate pattern in the study area. <![CDATA[<b>Computing with words to feasibility study of software projects</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400005&lng=en&nrm=iso&tlng=en RESUMEN Objetivo: Este trabajo propone un método para analizar la factibilidad técnica, comercial y social de proyectos de software en entornos de incertidumbre. Permite el trabajo con múltiples expertos y múltiples criterios y facilita la toma de decisiones. Método: La propuesta contiene dos fases, en la primera se recopila la información necesaria y en la segunda se evalúan los proyectos utilizando el modelo de representación lingüístico 2-tupla. Los expertos son seleccionados mediante el análisis de su síntesis curricular. Los criterios de evaluación son definidos utilizando la técnica Grupo Focal y ponderados en el intervalo (0,1) según su importancia. Se ofrecen tres dominios para expresar las valoraciones: numérico, intervalar y lingüístico. Para la agregación se emplean la media aritmética extendida y la media ponderada extendida, que evitan la pérdida de información. Como resultado se obtiene por cada proyecto el par (factibilidad, precisión). Resultado: El método se validó con tres proyectos, se evaluaron diez criterios y participaron seis expertos. La evaluación del proyecto p1 fue factibilidad muy alta con -0,33 de precisión, el proyecto p2 obtuvo una factibilidad alta con 0,38 de precisión y p3 alcanzó una factibilidad media con -0,21 de precisión. Conclusiones: Este método es una solución favorable para el análisis de factibilidad de proyectos de software con presencia de múltiples expertos y criterios en entornos de incertidumbre. Trata valoraciones heterogéneas sin pérdida de información. Sus resultados son consistentes y útiles para los decisores.<hr/>ABSTRACT Objective: This paper proposes a method to analyze the technical, commercial and social feasibility of software projects in environments of uncertainty. It allows working with multiple experts and multiple criteria and facilitates decision-making. Method: The proposal contains two phases, first the necessary information is collected and in second place projects are evaluated using 2-tuple linguistic representation model. The experts are selected by analyzing their curricular synthesis. The evaluation criteria are defined using the technique Focus Group and weighted in the interval (0,1) according to their importance. three domains are offered to express the preferences: numeric, interval-valued and linguistic. For aggregation extended arithmetic mean and weighted average extended are used, preventing the loss of information. A 2-tuple (feasibility, precision) is obtained as a result for each project. Results: The evaluation of P1 project was a very high feasibility with -0,33 of precision. The P2 project obtained a high feasibility with 0,38 of precision and P3 project achieved a medium feasibility with -0,21 of precision. Conclusions: This method is favorable for software projects feasibility analysis with presence of multiple experts and criteria, in environments of uncertainty. It tries heterogeneous assessments without loss of information. Their results are consistent and useful for decision makers. <![CDATA[<b>Impact of penetration of solar PV energy in distribution systems</b>: <b>case of study based on assumptions of the colombian context</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400006&lng=en&nrm=iso&tlng=en RESUMEN Contexto: El presente artículo muestra un método de evaluación del impacto de la penetración de energía solar fotovoltaica sobre los sistemas de distribución. La evaluación considera la minimización del costo de pérdidas de energía para el período de vida útil de los Paneles Fotovoltaicos (PFV) e incluye el cálculo del valor presente de los costos totales por compra de energía, e inversión, operación y mantenimiento de los PFV. Método: Los parámetros para la simulación se basan en estudios recientes en Colombia, con el fin de proponer alternativas más realistas. El problema de optimización se resuelve utilizando un algoritmo genético especializado y el método se prueba sobre el sistema de prueba de 37 nodos de la IEEE, modificado para incluir comportamiento de cargas residenciales e industriales. Resultados: Se presenta gráficamente la disminución de las pérdidas en el sistema de prueba a medida que se incrementa el número de barras con PFV. Los nodos más alejados de la fuente de alimentación son más atractivos para la ubicación de PFV en términos de inversión y costo total de la energía. Conclusiones: Los resultados de la evaluación llevan a una reducción de las pérdidas técnicas en las líneas además de mostrar las ventajas del soporte local de potencia reactiva. Según el escenario se observa que es posible generar con PFV obteniendo un retorno de la inversión desde la óptica del operador como inversionista.<hr/>ABSTRACT Context: This article presents an evaluation method for penetration of solar photovoltaic energy in distribution systems. This evaluation considers cost minimization of energy losses during the lifetime of the solar photovoltaic panels and includes calculation of total costs of energy, and investment, operation and maintenance of the panels. Method: The parameters used in this study are based on recent studies in Colombia with the purpose of proposing more realistic alternatives. The optimization problem is solved using a specialized genetic algorithm and the method is tested on the IEEE 37-bus test-system modified, to include behavior of residential and industrial loads. Results: Power losses in feeders are graphically presented as a relationship with the number of buses with photovoltaic panels. The farther buses from the power supply are more attractive for the location of photovoltaic panels in terms of investment and total cost of energy. Conclusions: Results of the evaluation presents a reduction of power losses in lines. In addition, it shows the advantages of local reactive power support. According to the scenario, it shows that it is possible to generate with photovoltaic panels obtaining an investment return from the perspective of the network operator and investor. <![CDATA[<b>Prototype for harmonic compensation in three phase systems</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400007&lng=en&nrm=iso&tlng=en RESUMEN Contexto: La metodología tradicional para el control de armónicos consiste en el uso de filtros pasivos sintonizados a las componentes armónicas a eliminar. Los filtros pasivos requieren de un diseño exigente en frecuencia para evitar fenómenos de resonancia con otros elementos y no responden a cambios en la dinámica del sistema eléctrico de potencia. Método: Una alternativa de solución de mejores características son los filtros activos de potencia paralelos. Estos filtros a diferencia de los filtros pasivos, inyectan corrientes de compensación a la red y tienen la capacidad de adaptarse a los cambios en las condiciones de operación. La implementación de un filtro activo implica desarrollo de hardware pero también desarrollo de software. Se requieren algoritmos para el cálculo de las corrientes de compensación, control de corriente y de la tensión del bus de continua. Resultados: En este trabajo se diseña y construye un prototipo para la compensación de armónicos de 5kVA en sistemas de distribución trifásica de 220V. Los elementos fundamentales que constituyen el hardware son: bobina de acople, condensador, dispositivos semiconductores y controlador. Los algoritmos de control que se encargan de la operación del filtro activo en cada instante de tiempo son Teoría PQ, Control Lineal-PWM y control PI. Conclusiones: Los filtros activos de potencia son una solución a la presencia de armónicos en los sistemas de potencia. Compensan los armónicos generados por las cargas, no presentan problemas de resonancia y tienen respuesta dinámica.<hr/>ABSTRACT Context: The traditional methodology for the control of harmonics consists in the use of passive filters tuned to the harmonic components to be eliminated. Passive filters require a frequency-demanding design to avoid resonance phenomena with other elements and they not respond to changes in the dynamics of the electric power system. Method: A best-performing solution alternative is parallel power active filters. These filters, unlike passive filters, inject compensation currents into the network and have adaptation to changes in operating conditions. The implementation of an active filter involves hardware development but also software development. Algorithms are required for calculation of compensation currents and dc bus voltage control. Results: In this work a prototype for the harmonic compensation of 5kVA is designed and built in three phase distribution systems of 220V. The hardware fundamental elements are: coupling coil, capacitor, semiconductor devices and controller. The control algorithms that are responsible for the operation of the active filter at each instant of time are PQ theory, Linear Control-PWM and PI Control. Conclusions: The active power filters are a solution to the presence of harmonics in power systems. They compensate the harmonics generated by nonlinear loads and they don‘t have resonance problems and good dynamic response. <![CDATA[<b>Evaluation of abrasion of a modified drainage mixture with rubber waste crushed (GCR)</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400008&lng=en&nrm=iso&tlng=en RESUMEN Contexto: Las mezclas asfálticas drenantes son definidas como aquellas cuyos vacíos con aire oscilan entre 20% y 25%, y emplean como ligante, un asfalto modificado con algún polímero principalmente elastomérico. A diferencia de otros estudios reportados sobre el tema, se evaluó el efecto de la temperatura de mezcla entre el asfalto modificado con GCR y el material pétreo (160 ºC y 170 ºC), y la variación de las temperaturas de compactación para cada una de ellas (110 ºC, 130 ºC, 150 ºC) y (150 ºC, 160 ºC 170 ºC) respectivamente. Método: El presente estudio evaluó en laboratorio, la resistencia al desgaste por abrasión (ensayo Cántabro) y la rigidez bajo carga monotónica (ensayo Marshall) y cíclica (módulo resiliente) que experimentó una mezcla asfáltica drenante MD fabricada con asfalto modificado con grano de caucho reciclado de llanta (GCR) por vía húmeda (se modifica el asfalto con el GCR a alta temperatura). Como asfalto base para la fabricación de las mezclas se utilizó cemento asfáltico CA 60-70 (PG 64-22). Resultados: se reporta un incremento notable en la resistencia al desgaste por abrasión, a la resistencia bajo carga monotónica y la rigidez bajo carga cíclica de la MD cuando se modifica con GCR. Conclusiones: Como conclusión general se resalta la influencia que tienen las temperaturas de mezcla entre el asfalto y el GCR, así como la de compactación (asfalto modificado y agregado) sobre el comportamiento de la MD modificada con GCR.<hr/>ABSTRACT Context: Porous asphalt mixtures are defined as an asphalt concrete with air voids content of around 20% and 25%, and the typical binder is a modified asphalt with some elastomeric polymer. Unlike other studies reported on the subject: i) The effect of mixing temperature between asphalt modified with GCR and stone materials (160 °C and 170 °C) was evaluated, ii) as the variation of compaction temperatures for each of (110 ºC, 130 ºC, 150 ºC) and (150 ºC, 160 ºC, 170 ºC), respectively. Method: This study measured in laboratory, the resistance to abrasion (Cantabria trial) and the stiffness under monotonic (Marshall test) and cyclical (resilient modulus) loading of a porous asphalt mixture MD. Asphalt cement CA 60-70 (PG 64-22) was used as binder. This binder was modified with recycling tyre rubber (GCR) by wet way (The GCR and binder are completely mixed to form asphalt rubber). Results: a significant increase in resistance to abrasion, resistance under monotonic loading and stiffness under cyclic loading of the MD is reported when this mixture is modified with GCR. Conclusion: The results showed that there is a highlighted influence of mix temperature (between asphalt and GCR) and compaction temperature (modified asphalt and aggregate) on the behavior of the MD modified with GCR. <![CDATA[<b>Orthomosaics and digital elevation models generated from images taken with UAV systems</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400009&lng=en&nrm=iso&tlng=en RESUMEN Contexto: Actualmente, los vehículos aéreos no tripulados (UAV por su sigla en inglés) son una de las herramientas tecnológicas de mayor investigación y aplicación en áreas como la fotogrametría aérea y de percepción remota, presentándose como una importante alternativa para la captura de imágenes de alta resolución espacial y temporal. Sin embargo, las características de vuelo, de las imágenes y de los sensores utilizados en los UAV generan grandes desafíos en el procesamiento tradicional para la generación de productos cartográficos como modelos digitales de elevación y ortomosaicos, por lo que se requiere de la identificación de nuevas estrategias de procesamiento. Método: En el presente artículo se realiza una revisión bibliográfica de las principales características de los UAV empleados en fotogrametría aérea junto con las estrategias de procesamiento afines que actualmente se están empleando en áreas como visión por computador y fotogrametría. Resultados: A partir de la revisión se observa que las estrategias de procesamiento en el área de visión por computador son más afines con la información capturada con los sistemas UAV para la generación de modelos digitales de elevación y ortomosaicos. Conclusiones: Los adelantos tecnológicos de los sistemas UAV y los avances en las estrategias de procesamiento de grandes volúmenes de datos seguirán impulsando la investigación y aplicación de estos sistemas en áreas como la fotogrametría y visión por computador, para la generación de productos cartográficos de mayor precisión.<hr/>ABSTRACT Context: Nowadays, Unmanned Aerial Vehicles (UAVs) are among the technological tools most researched and applied in areas such as aerial photogrammetry and remote sensing, presenting itself as an important alternative for capturing imagery with high spatial and temporal resolution. However, UAV flight parameters, image and sensor characteristics, result on major challenges for traditional processing for producing mapping products such as digital elevation models and orthomosaics, that is why it is required to identify new processing strategies. Method: In this paper, a review of the main characteristics of UAVs used in aerial photogrammetry is done, along with related processing strategies currently being used in areas such as computer vision and photogrammetry. Results: From this review, it is shown that processing strategies in the area of computer vision are more akin to the information captured with UAV systems for generating digital elevation models and orthomosaics. Conclusions: The technological advances in UAVs systems and advances in strategies for processing large data volumes continue to drive research and application of these systems for the generation of mapping products more accurately in areas such as photogrammetry and computer vision. <![CDATA[<b>Review of the status of art collection and utilization of rain water in urban and airports</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-921X2016000400010&lng=en&nrm=iso&tlng=en RESUMEN Contexto: El agua es actualmente considerada como el recurso natural más crítico del planeta. Numerosos estudios realizados a nivel mundial demuestran que los sistemas de recolección de aguas lluvias han sido necesarias para para suplir diferentes necesidades básicas, uno de los pasos más importantes en la planificación de un sistema de recolección de aguas pluviales es la utilización de un método para determinar la capacidad óptima de tanques de recolección y almacenamiento Método: En este trabajo se presenta diferentes conceptos de autores de artículos a nivel mundial que hacen referencia al aprovechamiento de agua lluvia, a su captación y aprovechamiento evitando que se desperdicie este recurso y que llegue a los alcantarillados y al arrasar con las basuras que encuentra lo que sucede es que contaminan y tapan estos doctos provocando inundaciones. Resultados: La investigación han demostrado que los sistemas de captación de agua de lluvia promueven el ahorro de agua en diversos ámbitos como por ejemplo en estadios, universidades escuelas, aeropuertos y zonas residenciales. Conclusiones: se determina que el agua lluvia no se ha tenidos en cuenta como factor de ahorro, ni aprovechamiento de este recurso con respecto a un impacto ambiental. En cuanto al concepto de captación y aprovechamiento del agua lluvia se tiene en cuenta como todo tipo de esfuerzo técnico, simple o complejo, surgido de la iniciativa de algunas personas para almacenarla y ser aprovechada posteriormente para uso de los agricultores, descargas de inodoros, orinales y riego de jardines, lavado de pisos, entre otras. Si se profundiza en un estudio de costo beneficio para recolectarla y aprovecharla para ser remplazada por el agua potable, mostraría muy buenos resultados.<hr/>Abstract Context: Water is currently considered the most critical natural resource on the planet. Numerous worldwide studies have shown that rainwater harvesting systems have been needed to meet different basic needs. One of the most important steps in planning a rainwater harvesting system is to use a method to determine The optimal capacity of collection and storage tanks Method: In this paper we present different concepts of authors of articles at a global level that refer to the use of rainwater, its capture and use avoiding that this resource is wasted and that it reaches the sewers and raking with the garbage found What happens is that they contaminate and cover these teachers causing flooding. Results: Research has shown that rainwater harvesting systems promote water saving in a variety of settings, such as stadiums, universities, schools, airports and residential areas. Conclusions: it is determined that rainwater has not been taken into account as a saving factor, nor the use of this resource with respect to an environmental impact. As for the concept of catchment and use of rainwater, it is taken into account as any kind of technical effort, simple or complex, arising from the initiative of some people to store it and be used later for farmers, toilet flushing, urinals and irrigation of gardens, washing of floors, among other. If you go into a cost benefit study to collect it and take advantage of it to be replaced by drinking water, it would show very good results.