Scielo RSS <![CDATA[Ciencia e Ingeniería Neogranadina]]> http://www.scielo.org.co/rss.php?pid=0124-817020210002&lang=es vol. 31 num. 2 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Editorial]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200001&lng=es&nrm=iso&tlng=es <![CDATA[Optimización del diseño de estructuras conformadas por pórticos de acero resistentes a momentos y amortiguadores de masa sintonizada (TMD)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200009&lng=es&nrm=iso&tlng=es Resumen: Las metodologías convencionales de diseño de estructuras sismo-resistentes se basan en el diseño de resistencia, rigidez y ductilidad de la estructura en el rango inelástico. Recientes avances en el área, buscan generar nuevas metodologías basadas en la disipación de energía del sismo mediante dispositivos externos. Lo anterior con el fin de disminuir los daños que se puedan presentar en los elementos estructurales después de la ocurrencia de un sismo. En este artículo, se propone una metodología para la optimización del diseño de pórticos de acero resistentes a momentos, equipados con amortiguadores de masa sintonizada. El objetivo es disminuir las deformaciones, los daños estructurales, los no estructurales y el costo de la estructura. En el proceso de optimización se utilizó una heurística basada en la teoría de la evolución de una población y denominada algoritmo de evolución diferencial. Se modificó adicionando dos características para mejorar su funcionamiento. En primera instancia, se le generó una autoadaptación de los parámetros de mutación y cruzamiento. Por otra parte, se le dio características multimodales para ayudar al algoritmo a encontrar el óptimo global. Finalmente, utilizando la metodología de optimización en los diversos casos de estudio, se pudo observar que la calidad de la solución y la convergencia del algoritmo eran buenas. Además, se vio una mejoría en la calidad de optimización debido a las características adicionadas de funciones multimodales y parámetros autoadaptativos. Haciendo que el algoritmo tuviera mayor espacio de exploración y explotación.<hr/>Abstract: Conventional design methods for earthquake-resistant structures are based on the structure's resistance, stiffness, and ductility in the inelastic range. Recent advances in the area seek to engender new methodologies based on seismic energy dissipation through external devices to reduce the damage that may occur in the structural elements after an earthquake. This article proposes a method to optimize the design of moment-resisting steel frames equipped with tuned mass dampers. The objective is to reduce deformations, structural damage, nonstructural damage, and the cost of the structure. In the optimization process, a heuristic criterion was used based on the theory of evolution of populations called the differential evolution algorithm, modified by adding two features to improve its performance. First, the mutation and crossing parameters were provided with self-adaptation. Then, the algorithm was given multimodal characteristics to help it find the global optimum. Finally, we observed that the solution quality and algorithm convergence were good using the optimization method in the various study cases. Furthermore, there was an improvement in optimization quality due to the added features of multimodal functions and self-adaptive parameters, expanding the algorithm for exploration and exploitation. <![CDATA[Hormigón de alta resistencia con agregados naturales, humo de sílice y macrofibras de polipropileno]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200027&lng=es&nrm=iso&tlng=es Abstract: The use of concrete with polypropylene macrofibers can reduce the fragility and shrinkage of silica fume mixtures. Here, we investigated the effect silica fumes and aggregates have on enhancing high-performance concrete with polypropylene macrofibers. Three dosages of polypropylene macrofibers were evaluated (0.39, 0.63, and 0.79 % volume fraction), including silica fume (0.0 and 7.0 % water-cement), for two types of coarse aggregate (limestone and river gravel), with two maximum nominal sizes of coarse aggregate. In total, 96 concrete specimens were subjected to compression and bending tests to evaluate the effect of adding fiber, silica fume, and different aggregate types. The results showed a resistance to compression between 36 and 71 MPa, and that to flexural strengths of 3.6 to 5.8 MPa, which indicates high-performance concrete. The work shows that it is possible to achieve high-strength concrete with 55 mm polypropylene macrofibers combined with silica fumes and natural aggregates of both the limestone and calcareous types, which is beneficial for the local production of high-performance concrete.<hr/>Resumen: El uso de hormigón con macrofibras de polipropileno puede reducir la fragilidad y la contracción de las mezclas de humo de sílice. En el presente estudio, se investiga el efecto que tienen los humos de sílice y los agregados en la mejora del hormigón de alto desempeño con macrofibras de polipropileno. Se evaluaron tres dosis de macrofibras de polipropileno (fracción de volumen de 0.39 %, 0.63 % y 0.79 %), incluido el humo de sílice (0.0 % y 7.0 % de agua-cemento), para dos tipos de agregado grueso (piedra caliza y grava de río) con dos tamaños nominales máximos. En total, 96 probetas de concreto se sometieron a pruebas de compresión y flexión para evaluar el efecto de la adición de fibra, humo de sílice y diferentes tipos de agregados. Los resultados mostraron una resistencia a la compresión entre 36 MPa y 71 MPa, y una resistencia a la flexión de 3.6 MPa a 5.8 MPa, lo que indica un concreto de alto desempeño. El trabajo demuestra que es posible conseguir un hormigón de alta resistencia con macrofibras de polipropileno de 55 mm combinadas con humos de sílice y agregados naturales tanto de tipo calizo como calcáreo, lo que resulta beneficioso para la producción local de hormigón de alto desempeño. <![CDATA[Enfoque de agrupamiento para generar grupos de patrones de tráfico peatonal: un análisis exploratorio]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200041&lng=es&nrm=iso&tlng=es Abstract: This study shows the development of patterns of temporal hourly volume distributions in an urban area in Costa Rica, based on a cluster analysis of pedestrian data. This study aims to establish specific pattern groups for the temporal variation of weekday pedestrian volumes applying cluster analysis in the central business district of Guadalupe in San José. For 46 counting sites, vectors with the weekday hourly factors, the proportion of the daily pedestrian traffic, were estimated. A hierarchical cluster method was implemented to group the vectors of hourly factors from the different counting sites. This method groups elements by minimizing the Euclidean distance between elements of the same group and, at the same time, maximizing the distances from elements of other groups. In addition, the groups found through this analysis are related to land use through buffers of different radios. Eight temporal pattern groups were obtained through cluster analysis. Two pattern groups account for more than two-thirds of the sites included in the study. Fisher's exact independence test shows that banks and public services could explain some of the patterns observed. The classification of 46 counting sites based on temporal distribution patterns, and the relation with the establishments in the area, allows a simplification of the information and facilitates an understanding of the pedestrian mobility in the area. Further research is required that leads towards geographical elements that could explain the differences in temporal and mobility patterns.<hr/>Resumen: El presente estudio muestra el desarrollo de patrones de distribuciones temporales de volumen por hora en un área urbana de Costa Rica con base en un análisis de grupos de datos de peatones. Este estudio tiene como objetivo establecer grupos de patrones específicos para la variación temporal de los volúmenes de peatones entre semana mediante la aplicación del análisis de grupos en el distrito comercial central de Guadalupe en San José. Para 46 sitios de conteo, se estimaron los vectores con los factores horarios del día de la semana y la proporción del tráfico peatonal diario. Se implementó un método de agrupamiento jerárquico para los vectores de factores horarios de los sitios de conteo; este método agrupa elementos minimizando la distancia euclidiana entre elementos del mismo grupo mientras maximiza las distancias con elementos de otros grupos. Los grupos encontrados a través de este análisis están relacionados con el uso del suelo a través de búferes de diferentes radios. Se obtuvieron ocho grupos de patrones temporales mediante análisis de grupos; dos de estos representan más de dos tercios de los sitios incluidos en el estudio. La prueba de independencia exacta de Fisher muestra que los bancos y los servicios públicos podrían dar cuenta de algunos de los patrones observados. Esta clasificación permite una simplificación de la información y facilita la comprensión de la movilidad peatonal en la zona. En este sentido, se requieren más investigaciones que conduzcan a elementos geográficos que podrían explicar diferencias en los patrones temporales y de movilidad. <![CDATA[Propiedades dieléctricas de asfaltos: revisión]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200061&lng=es&nrm=iso&tlng=es Resumen: El asfalto es un material complejo cuyo desempeño depende en gran medida de su composición química. En el mundo, se han realizado múltiples estudios para intentar correlacionar las propiedades físico-químicas de estos materiales, con el fin de intentar comprender su desempeño ante solicitudes de carga y condiciones medioambientales, similares a las que experimentan cuando forman parte de una mezcla asfáltica en un pavimento. A pesar del amplio número de investigaciones realizadas en estas áreas, el complejo comportamiento viscoelástico que caracteriza a estos materiales amorfos aún no ha sido totalmente entendido. Una técnica que podría ayudar a mejorar el entendimiento de asfaltos es la espectroscopia de impedancia eléctrica compleja. Mediante esta, se pueden medir y evaluar las propiedades dieléctricas de estos materiales, las cuales podrían ser correlacionadas con aquellas de carácter físico-químico. En el presente artículo, se presenta una revisión bibliográfica sobre los estudios realizados a la fecha para medir y analizar propiedades dieléctricas en asfaltos. Se describen los estudios y se reportan las limitaciones de los mismos.<hr/>Abstract: Asphalt is a complex material whose performance depends mainly on its chemical composition. Globally, multiple studies have tried to correlate the physicochemical properties of this material to understand its performance under load requirements and environmental conditions, like those experienced when part of an asphalt mix in the pavement. Despite many studies conducted on the subject, the complex viscoelastic behavior that characterizes this amorphous material has not yet been fully figured out. One technique that could help comprehend asphalt is complex electrical impedance spectroscopy, which measures and evaluates these materials' dielectric properties, correlating them with those of a physical-chemical nature. This article presents a literature review of the research carried out to date to measure and analyze dielectric properties in asphalt, describing the studies and reporting their limitations. <![CDATA[Optimización metaheurística aplicada en la gestión de pavimentos asfálticos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200075&lng=es&nrm=iso&tlng=es Abstract: Pavement engineering is a crossroads between geotechnical and transportation engineering with a sound base on construction materials. There are multiple applications of optimization algorithms in pavement engineering, emphasizing pavement management for its socioeconomic implications and back-calculation of layer properties for its complexity. A detailed literature review shows that optimization has been a permanent concern in pavement engineering. However, only in the last two decades, the increase in computational power allowed the implementation of metaheuristic optimization techniques with promising results in research and practice. Pavement management requires powerful optimization tools for multi-objective problems such as minimizing costs and maximizing the pavement state from network to project level with constrained budgets. A substantial amount of research focuses on genetic algorithms (GA), but new developments include particle intelligence (PSO, ACO, and ABC). The study must go beyond small-sized networks to improve the management of existing road infrastructure (pavement, bridges) based on mechanistic and reliability criteria.<hr/>Resumen: La Ingeniería de pavimentos es una encrucijada entre la Ingeniería geotécnica y la Ingeniería de transporte con una sólida base en los materiales de construcción. Existen diferentes aplicaciones de los algoritmos de optimización en la ingeniería de pavimentos, las cuales enfatizan la gestión del pavimento por sus implicaciones socioeconómicas y el cálculo inverso de las propiedades de las capas por su complejidad. Una revisión detallada de la literatura muestra que la optimización ha sido una preocupación permanente en la ingeniería de pavimentos; sin embargo, solo en las últimas dos décadas, el incremento del poder computacional permitió la implementación de técnicas de optimización metaheurísticas con resultados prometedores en la investigación y en la práctica. La gestión del pavimento requiere poderosas herramientas de optimización para problemas con objetivos múltiples, como minimizar costos y maximizar el estado del pavimento desde el nivel de la red hasta el del proyecto con presupuestos limitados. Una cantidad sustancial de investigaciones se centra en los algoritmos genéticos (AG), pero los nuevos desarrollos incluyen inteligencia de partículas (PSO, ACO y ABC). El estudio debe ir más allá de las redes de pequeño tamaño para mejorar la gestión de la infraestructura vial existente (pavimento, puentes) con base en criterios mecanicistas y de conflabllldad. <![CDATA[Tipología estructural de construcciones en procesos de expansión urbana]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200093&lng=es&nrm=iso&tlng=es Resumen: El desarrollo de la ciudad genera problemas cuando las edificaciones no se construyen cumpliendo las normativas necesarias. El objetivo del presente estudio es caracterizar la tipología estructural de edificaciones construidas en el periodo comprendido entre 1997 y 2016 en zonas representativas de la ciudad de Tunja. Para ello, se procesaron y clasificaron imágenes satelitales, delimitando zonas de desarrollo de edificaciones nuevas para el periodo de estudio. Asimismo, se analizaron datos en Sistemas de Información Geográfica (SIG), producto de encuestas del estudio de tipología estructural de las edificaciones, con el fin de determinar la calidad de las mismas. Se obtuvieron imágenes para clasificación de zonas de desarrollo y una base de datos geográfica (BDG) con información de tipología estructural. Sobre la zona de estudio, se observaron tendencias constructivas de buena calidad orientadas, principalmente, a los sistemas de muros de carga. La interpretación de imágenes satelitales y su análisis con estudios como el de tipología estructural son útiles en la planificación del territorio. En la actualidad, referente a la ciudad, aún no se cuenta con trabajos relacionados al tema que incluyan el análisis de la información de tipología estructural.<hr/>Abstract: The development of cities causes problems when buildings are not erected in compliance with the necessary regulations. This study aims to characterize the structural typology of buildings built between 1997 and 2016 in representative areas of Tunja, Boyacá (Colombia). For this, satellite images were processed and classified, delimiting new building development areas for the study period. We also analyzed data in Geographic Information Systems (Gis) from surveys of the structural typology study of buildings to determine their quality. Images for the classification of development areas and a geographic database (GDB) with information on structural typology were obtained. In the study area, we observed good quality construction trends, mainly oriented to load-bearing wall systems. The interpretation and analysis of satellite images with studies such as structural typology are helpful for land planning. There is still no research on the subject that includes the analysis of structural typology information for this city. <![CDATA[Evaluación de desempeño de un sistema radiante. Estudio de caso: eNodeB para 3G]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200105&lng=es&nrm=iso&tlng=es Resumen: Medir la razón de onda estacionaria de voltaje, las pérdidas de retorno y la distancia a la falla del sistema radiante es una estrategia para evaluar el desempeño de un sistema. Ya sea para verificar la instalación correcta de una nueva estación base o la ampliación de una celda ya existente. Si los valores medidos por el operador no están dentro de los límites establecidos por la agencia reguladora, la antena asociada evidenciará un desempeño bajo por las pérdidas altas de potencia, la eficiencia de potencia baja y una energía reflejada hacia el transmisor. Dicha energía no solamente distorsionará la señal, sino que afectará el nivel de potencia transmitida, el patrón de radiación y, a su vez, el área de cobertura de la estación base. El objetivo de esta investigación fue analizar los resultados de mediciones de campo de las variables indicadas anteriormente en un sistema radiante eNodeB ubicado en Envigado (Antioquia) para evaluar su desempeño. La metodología que se llevó a cabo fue el análisis de un estudio de caso por sectores y subsectores. Los hallazgos encontrados evidencian un desempeño alto para el sistema radiante de la estación base eNodeB. Lo anterior, se determina mediante razón de onda estacionaria de voltaje de 1,1, pérdidas de retorno de -31,67 y distancia a la falla de 5 m que desarrollan un |Γ| =0,05, una eficiencia de potencia de 99,8 %. Lo que se encuentra dentro de los rangos límite establecidos por la Agencia Nacional del Espectro.<hr/>Abstract: Measuring the voltage standing wave ratio, return losses, and distance-to-fault of a radiant system is a strategy for assessing its performance, either to verify the correct installation of a new base station or the expansion of an existing cell. If the values measured by the operator are not within limits established by the regulator, the associated antenna will show low performance due to high power losses, low power efficiency, and reflected energy towards the transmitter. This energy will distort the signal and affect the transmitted power level, the radiation pattern, and, in turn, the coverage area of the base station. This research intends to analyze the results of field measurements of the variables above in an eNodeB radiant system located in Envigado (Antioquia) to assess its performance. The method used was the analysis of a case study by sectors and subsectors. The findings show high performance for the radiant system of the eNodeB base station, determined by a voltage standing wave ratio of 1.1, return losses of -31.67, distance-to-fault of 5 m that develops a |Γ|= 0.05, and power efficiency of 99.8 %, variables within the limit ranges established by the National Spectrum Agency. <![CDATA[Tratamientos avanzados para la potabilización de aguas residuales]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200121&lng=es&nrm=iso&tlng=es Resumen: El objetivo principal de este artículo es identificar los avances más importantes en referencia a la potabilización de aguas residuales. Para ello, se realiza la explicación detallada sobre la importancia del agua y su estado actual teniendo en cuenta los contaminantes nocivos para el ecosistema acuático. El estudio toma como referentes artículos científicos, revistas, tesis y libros de información desde el año 1936 hasta el 2019 de diferentes bases de datos como Google Académico, Virtual Pro, Ambientalex.info y Science Direct. A partir de la investigación, se describen las ventajas y desventajas que brindan cada uno los tratamientos de agua existentes. Específicamente, se da cuenta de los tratamientos avanzados, en los cuales se determinan las técnicas innovadoras, los beneficios, las aplicaciones y el funcionamiento a escala industrial. Los resultados de este estudio señalan que al implementar tratamientos avanzados de aguas residuales se genera un desarrollo tecnológico con enfoque en la gestión hídrica, que da lugar a un mayor grado de remoción de contaminantes en el agua. Además, se evidencia que las técnicas de intercambio y tecnologías de membrana son funcionales para realizar procesos de remoción efectivos y eficientes. A pesar de que el método de oxidación avanzada realiza la degradación de contaminantes, se concluye que no es funcional por su alto costo operativo.<hr/>Abstract: This article seeks to identify the most crucial breakthroughs in wastewater purification. For this, a detailed explanation is given about the importance of water and its current state, considering harmful pollutants for the aquatic ecosystem. The study takes scientific articles, journals, dissertations, and textbooks published between 1936 and 2019 in different databases such as Google Scholar, Virtual Pro, Ambientalex.info, and Science Direct. Accordingly, it describes the advantages and disadvantages provided by each of the existing water treatments, specifically advanced treatments, determining innovative techniques, benefits, applications, and operations on an industrial scale. The results suggest that implementing advanced wastewater treatments gives rise to technological development focusing on water management, reaching a higher level of water pollutant removal. Besides, the exchange techniques and membrane technologies are functional to carry out effective and efficient removal processes. Even though the advanced oxidation method degrades pollutants, it is not functional due to its high operating cost. <![CDATA[Hidrólisis del bagazo de remolacha roja y modelado de hidrolizados para la producción de bioetanol]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200135&lng=es&nrm=iso&tlng=es Abstract: Red beets in Mexico are used in the colorants industry, but their juice bagasse (RBB) can be carbohydrates for ethanol production. The present study aims to the pretreatment of bagasse of red beet using acid (H2SO4) and alkali (NaOH) to improve the availability of sugars. Also, describe quantitatively in the hydrolysates the microbial growth, substrate consumption, and ethanol production with simulation using data kinetics of red beet and logistic, Pirt, and Luedeking-Piret equations. Experiments with H2SO4 at sterilization conditions resulted in lower phenolic formation and increased hydrolysis to 32 %. Logistic, Pirt, and Luedeking-Piret equations were used to quantitatively describe the hydrolysates the microbial growth, substrate consumption, and ethanol production, respectively. In the alkali treatment, a significant mean difference was found (p &lt; 0.05) in substrate mass and reaction time. The maximum yield of 38 g/L of total sugars at 72 h of reaction was obtained from 6 g RBB and H2SO4 at 0.5 N. The ethanol yield was 15 to 18 g/L representing about 78 to 92 % of the theoretical yield.<hr/>Resumen: La remolacha roja en México se utiliza en la industria de los colorantes, pero el jugo de su bagazo (BRR) puede ser un carbohidrato para la producción de etanol. El presente estudio tiene como objetivo el pretratamiento del brr con ácido (H2SO4) y álcali (NaOH) para mejorar la disponibilidad de azúcares. Además, se describe de forma cuantitativa en los hidrolizados el crecimiento microbiano, el consumo de sustrato y la producción de etanol con simulación mediante la cinética de datos de la remolacha roja y las ecuaciones logística, de Pirt y de Luedeking-Piret. Los experimentos con H2SO4 en condiciones de esterilización dieron como resultado una menor formación de fenoles y un aumento de la hidrólisis al 32 %. Se utilizaron las ecuaciones mencionadas para describir cuantitativamente los hidrolizados, el crecimiento microbiano, el consumo de sustrato y la producción de etanol, respectivamente. En el tratamiento con álcali, se encontró una diferencia media significativa (p &lt; 0.05) en la masa del sustrato y el tiempo de reacción. El rendimiento máximo de 38 g/L de azúcares totales a las 72 h de reacción se obtuvo a partir de 6 g de BRR y H2SO4 a 0,5 N. El rendimiento de etanol fue de 15 g/L a 18 g/L, lo que representa aproximadamente del 78 % al 92 % del rendimiento teórico. <![CDATA[Cuantificación del efecto de la densidad de datos de LiDAR en la calidad del DEM]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0124-81702021000200149&lng=es&nrm=iso&tlng=es Abstract: LiDAR sensors capture three-dimensional point clouds with high accuracy and density; since they are regularly obtained, interpolation methods are required to generate a regular grid. Given the large size of its files, processing becomes a challenge for researchers with not very powerful computer stations. This work aims to balance the sampling density and the volume of data, preserving the sensitivity of representation of complex topographic shapes as a function of three surface descriptors: slope, curvature, and roughness. This study explores the effect of the density of LiDAR data on the accuracy of the Digital Elevation Model (DEM), using a ground point cloud of 32 million measurements obtained from a LiDAR flight over a complex topographic area of 156 ha. Digital elevation models with different relative densities to the total point dataset were produced (100, 75, 50, 25, 10, and 1% and at different grid sizes 23, 27, 33, 46, 73, and 230 cm). Accuracy was evaluated using the Inverse Distance Weighted and Kriging interpolation algorithms, obtaining 72 surfaces from which their error statistics were calculated: root mean square error, mean absolute error, mean square error, and prediction effectiveness index; these were used to evaluate the quality of the results in contrast with validation data corresponding to 10 % of the original sample. The results indicated that Kriging was the most efficient algorithm, reducing data to 1 % without statistically significant differences with the original dataset, and curvature was the morphometric parameter with the most significant negative impact on interpolation accuracy.<hr/>Resumen: Los sensores LiDAR capturan nubes de puntos tridimensionales con alta precisión y densidad; dado la regularidad, se requieren métodos de interpolación para generar una cuadrícula regular. Debido al gran tamaño de sus archivos, el procesamiento es un desafío para las estaciones informáticas poco potentes. Este trabajo se propone equilibrar la densidad de muestreo y el volumen de datos preservando la sensibilidad de representación de formas topográficas complejas en función de tres descriptores de superficie: pendiente, curvatura y rugosidad. Se explora el efecto de la densidad de los datos de LiDAR sobre la precisión del Modelo Digital de Elevación (DEM) mediante una nube de puntos terrestres de 32 millones de mediciones obtenidas de un vuelo LiDAR sobre un área topográfica compleja de 156 ha. Se produjeron modelos digitales de elevación con diferentes densidades relativas al conjunto de datos de puntos totales. La precisión se evaluó mediante algoritmos de interpolación de distancia inversa ponderada y Kriging, con lo que se obtuvo 72 superficies y se calcularon las estadísticas de error: error cuadrático medio, error medio absoluto, error cuadrático medio e índice de efectividad de predicción. Con esto se evaluó la calidad de los resultados en contraste con los datos de validación correspondientes al 10% de la muestra original. Los resultados indicaron que Kriging fue el algoritmo más eficiente reduciendo los datos al 1 % sin diferencias estadísticamente significativas con el conjunto de datos original, y la curvatura fue el parámetro morfométrico con el impacto negativo más significativo en la precisión de la interpolación.