Scielo RSS <![CDATA[Revista Facultad de Ingeniería Universidad de Antioquia]]> http://www.scielo.org.co/rss.php?pid=0120-623020220004&lang=es vol. num. 105 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Editorial]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400007&lng=es&nrm=iso&tlng=es <![CDATA[Evaluación de diferentes metodologías para el diseño del campo de captación de sistemas geotérmicos someros]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400009&lng=es&nrm=iso&tlng=es ABSTRACT Low enthalpy geothermal resources play an essential role in climate change mitigation. When ensuring the correct future operation of ground-source heat pump systems, an accurate design is mandatory. In this sense, different methodologies can be implemented. Although using sophisticated software constitutes the most optimal solution, its implementation is sometimes inviable in certain projects (the increase of the initial investment required is not justified in small plants). This work is focused on evaluating and comparing procedures used in the design of shallow geothermal systems. Thus, the research includes a simple method based on manual calculations, the Climasoft free application, Earth Energy Designer (EED) software, and the new geothermal tool GES-CAL developed by researchers from the TIDOP Research Group (University of Salamanca). The objective is to evaluate this new software and compare the results of all the detailed methodologies. This comparison derives from applying these tools in the calculation of the same case study (a single-family house placed in Ávila, Spain). Results show that the easiest methods involve oversized well-field schemas that also mean higher initial investments. Regarding GES-CAL, it is considered an accurate and valid alternative for the design of all heat exchanger configurations, especially for those installations placed in the region of Ávila. However, EED is recommended to calculate high-power geothermal systems that require an exhaustive analysis of the ground and the heat carrier fluid behaviour.<hr/>RESUMEN Los recursos geotérmicos de baja entalpía juegan un papel esencial en la mitigación del cambio climático. Para garantizar el funcionamiento de los sistemas de bomba de calor, es obligatorio un diseño preliminar preciso. A la hora diseñar estas instalaciones es posible implementar metodologías con diferentes grados de precisión. Aunque el software más sofisticado constituye la mejor solución, su uso es inviable en determinados proyectos (el aumento de la inversión no está justificado en pequeños sistemas). Este trabajo se centra en evaluar procedimientos utilizados en el diseño de sistemas geotérmicos someros. La investigación incluye el método más simple basado en cálculos manuales, la aplicación gratuita Climasoft, el software Earth Energy Designer (EED) y la herramienta GES-CAL desarrollada por investigadores del Grupo de Investigación TIDOP (Universidad de Salamanca). El objetivo es evaluar este software y comparar los resultados de todas las metodologías detalladas. Esta comparación deriva de la aplicación de estas herramientas sobre el mismo caso de estudio (edificio unifamiliar emplazado en Ávila, España). Los resultados muestran que los métodos más sencillos involucran esquemas de captación sobredimensionados que conllevan inversiones más altas. En cuanto a GES-CAL, se considera una alternativa precisa para el diseño de todas las configuraciones de intercambiadores, especialmente instalaciones ubicadas en la región de Ávila.Se recomienda EED para el cálculo de sistemas geotérmicos de alta entalpía que requieren un análisis exhaustivo del comportamiento del fluido de trabajo. <![CDATA[Índices de contaminación del agua de la microcuenca altoandina del río Chumbao, Andahuaylas, Perú]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400020&lng=es&nrm=iso&tlng=es ABSTRACT During its journey, the river water suffers natural or anthropic contamination, deteriorating its quality. This impact can be qualified by determining the pollution Indexes (IPO). The work aimed to evaluate the spatial and temporal variation of the IPOs in the water of the high Andean micro-basin of the Chumbao River. The study included the section from 13°46'38.4” S, 73°15'32.3” W at 4079 m of altitude up to 13°35'26.4” S, 73°27'00.8” W at 2572 m of altitude. Physical, chemical, and microbiological parameters of the water were determined in 8 points along the river. These were grouped to calculate the IPO by mineralization (IPOMI), organic matter (IPOMO), suspended solids (IPOSUS), and trophic (IPOTRO) in the dry and rainy seasons. The indexes were categorized from 0.0 (not polluted) to 1.0 (highly polluted). The data were collected in triplicate and valuated through ANOVA and Tukey's test. It was found that IPOSUS, IPOMI, and IPOMO. The points near the head of the micro-basin reported no and low pollution; besides, they increased considerably in urban areas reaching highly polluted levels. In contrast, IPOTRO reported a eutrophic state, and that contamination levels were higher in the dry season. The waters of the Chumbao River above 2900 m of altitude and close to the head of the micro-basin do not show contamination, but in the urban area the index of pollution is high.<hr/>RESUMEN El agua de los ríos durante su trayecto sufre contaminación natural o antrópica, deteriorando su calidad; una herramienta que permite cualificar este impacto son los índices de contaminación (ICO). El objetivo del trabajo fue evaluar la variación espacial y temporal de los ICO del agua de la microcuenca altoandina del río Chumbao. El estudio comprendió el tramo 13°46’38.4” S, 073°15’32.3” O y 4079 m de altitud a 13°35’26.4” S, 73° 27’00.8” O y 2572 m de altitud. Se determinaron parámetros físicos, químicos y microbiológicos del agua, en 08 puntos del río, en temporada de estiaje y lluvia, y fueron agrupados para el calculó del ICO por mineralización (ICOMI), materia orgánica (ICOMO), sólidos suspendidos (ICOSUS) y trófico (ICOTRO). Los índices fueron categorizados de 0.0 (ninguna contaminación) a 1.0 (muy alta contaminación). Los datos se recolectaron por triplicado y evaluados con un ANOVA y test Tukey. Se encontró que ICOSUS, ICOMI E ICOMO en los puntos cercanos a la cabecera de cuenca reportaron ninguna y baja contaminación, e incrementaron considerablemente en las zonas urbanas llegando a niveles de altamente contaminado, mientras que el ICOTRO reporto estado eutrófico, con niveles de contaminación mayores en temporada de estiaje. Las aguas del río Chumbao por encima de 2900 m de altitud y cercanos a la cabecera de la microcuenca, presenta ninguna contaminación, y en la zona urbana el incide de contaminación es alta. <![CDATA[Esterificación de ácido levulínico mediante procesos catalíticos y fotocatalíticos empleando dióxido de titanio fluorado]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400029&lng=es&nrm=iso&tlng=es ABSTRACT This study evaluated the synthesis, characterization, and activity of fluorinated titanium dioxide materials (TiO2-F 1% and TiO2-F 5%) in-situ modified by the sol-gel method in the esterification reaction of levulinic acid conducted by catalytic and photocatalytic processes. The physicochemical properties of the materials were determined by X-ray diffraction, UV-Vis diffuse reflectance spectroscopy, thermal analysis, and pyridine adsorption. It was found that the inclusion of fluoride anion causes a decrease in the levulinic acid conversion by photocatalytic reaction; however, in the catalytic activation, a slight increase in the conversion using the fluoride materials was observed. Finally, the reaction in the presence of halogenated solvents (CCl4) by photolysis reaction favors a conversion of 100% in 1h.<hr/>RESUMEN En el presente trabajo de investigación se estudió la síntesis, caracterización y actividad de materiales de dióxido de titanio fluorados (TiO2-F 1% y TiO2-F 5%) modificados in-situ a través del método de sol-gel, en la reacción de esterificación de ácido levulínico conducida tanto por vía fotocatalítica como catalítica. Las propiedades fisicoquímicas de los materiales se determinaron mediante estudios por difracción de rayos X, espectrofotometría UV-Vis de reflectancia difusa, análisis térmico y adsorción de piridina. Se encontró que la inclusión del anión fluoruro causa una disminución en la conversión del ácido levulínico por vía fotocatalítica; sin embargo, en la activación por vía catalítica se observó un ligero incremento en la conversión del ácido levulínico empleando los materiales fluorados. Finalmente, la reacción en presencia de disolventes halogenados (CCl4) mediante reacción de fotólisis favorece una conversión del 100% en 1h. <![CDATA[Un método rápido para buscar la media y varianza de la suma de variables lognormales]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400037&lng=es&nrm=iso&tlng=es ABSTRACT The sum of lognormal variables has been a topic of interest in several fields of research such as engineering, biology and finance, among others. For example, in the field of telecommunications, the aggregate interference of radio frequency signals is modeled as a sum of lognormal variables. To date, there is no closed expression for the probability distribution function (PDF) of this sum. Several authors have proposed approximations for this PDF, with which they calculate the mean and variance. However, each method has limitations in its range of parameters for mean, variance and number of random variables to be added. In other cases, long approximations as power series are used, which makes the analytical treatment impractical and reduces the computational performance of numerical operations. This paper shows an alternative method for calculating the mean and variance of the sum of lognormal random variables from a computational performance approach. Our method has been evaluated extensively by Monte Carlo simulations. As a result, this method is computationally efficient and yields a low approximation error computation for a wide range of mean values, variances and number of random variables.<hr/>RESUMEN La suma de las variables lognormal ha sido un tema de interés en varios campos de investigación como ingeniería, biología y finanzas entre otros. Por ejemplo, en el campo de las telecomunicaciones la interferencia agregada de señales de radiofrecuencia se modela como una suma de variables lognormal. A la fecha, no existe una expresión cerrada para la probabilidad función de distribución (PDF) de esta suma. Varios autores han propuesto aproximaciones para esta PDF con el fin de calcular el valor medio y varianza. Pero cada método tiene limitaciones en su rango de parámetros para la media, la varianza y el número de variables que se suman. En otros casos, existen aproximaciones con series de potencias muy largas, lo que hace que el análisis y tratamiento analítico sea impráctico, además, reduce el rendimiento computacional de operaciones numéricas. En este artículo, mostramos un nuevo método para calcular la media y varianza de la suma de variables aleatorias de tipo lognormal y desarrollamos todo el análisis desde un enfoque de eficiencia computacional. El desarrollo ha sido evaluado extensamente por simulaciones de Monte Carlo. Como resultado, este método es computacionalmente eficiente y produce un cálculo de error de aproximación bajo para una amplia gama de valores medios, varianzas y número de variables aleatorias. Lo cual lo hace útil al momento de hacer simulaciones con este tipo de variables. <![CDATA[SOFCEV: Reducción de LCC y VPN basada en ahorros en fijación de carbono por plantaciones]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400047&lng=es&nrm=iso&tlng=es ABSTRACT Carbon pricing is a cost-effective method for mitigating climate impacts. This article examines the conventional life cycle cost (LCC), net present value (NPV), and carbon dioxide (CO2) emissions of the Solid Oxide Fuel Cell Electric Vehicle (SOFCEV) powered by Brazilian fuels. The cost reduction potential of the SOFCEV was evaluated, considering the Brazilian productivity of sugarcane and the carbon fixed by these plantations, through the mechanism of carbon credits sale. Sugarcane ethanol and gasoline C (73% gasoline A and 27% anhydrous ethanol) were considered. Three scenarios were outlined: a) Cost of investment, fuel production, and vehicle maintenance and operation in USD/km, over a 10-year amortization period; b) SOFCEV emission cost from well-to-wheel added to cost (a); c) Cost of carbon fixed by hectares of sugarcane in Brazil necessary to supply the fuel demand of the SOFCEV subtracted from (b). Results showed that the ethanol-fuelled SOFCEV attends the carbon-neutral cycle, since the carbon credit sale resulted in an avoided cost 1.1 times higher than the emissions cost. Gasoline C showed similar results for the three scenarios, with an emission cost 2.5 times higher than the avoided cost. Carbon pricing was not sufficient to make the technology more viable for consumer, with an expected NPV of -USD 8006.38 after the amortization period. Thus, it is expected to obtain economic indicators to encourage the use of biofuels in electric fleets.<hr/>RESUMEN La tarificación del carbono es un método rentable para mitigar los impactos climáticos. Este artículo examina el costo del ciclo de vida convencional (LCC), el valor actual neto (NPV) y las emisiones de dióxido de carbono (CO2) del vehículo eléctrico de celda de combustible de óxido sólido (SOFCEV). Se evaluó el potencial de reducción de costos del SOFCEV, considerando la productividad brasileña de caña de azúcar y la fijación de carbono por estas plantaciones, mediante el mecanismo de venta de créditos de carbono. Se delinearon tres escenarios: a) Costo de inversión, producción de combustible, mantenimiento y operación del vehículo en USD/km, en un período de amortización de 10 años; b) Costo de emisión producida en el SOFCEV desde el pozo a la rueda agregado al coste de (a); c) Costo del carbono fijado por hectáreas de caña de azúcar necesario para abastecer el SOFCEV restado de (b). El SOFCEV alimentado con etanol alcanza la neutralidad de carbono, con un costo evitado 1,1 veces mayor que el costo de las emisiones. La gasolina C mostró un costo de emisiones 2.5 veces mayor que el costo reducido. El precio del carbono no fue suficiente para que la tecnología fuera más viable para el consumidor, con un NPV esperado de -USD 8006.38 en 10 años. Así, se espera obtener indicadores económicos para incentivar el uso de biocombustibles en las estaciones de carga eléctrica. <![CDATA[Relación entre parámetros constructivos y cargas térmicas en un edificio sin ganancias internas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400060&lng=es&nrm=iso&tlng=es ABSTRACT The analysis of building characteristics indicates that there are some uncertainties influencing its energy performance: Environment, volumetry or operating conditions. It is important to have a low-cost system that performs this analysis and energy management by optimizing the coupling between production and consumption. Knowing the relationship between the annual thermal needs with different construction parameters can help to define this system and allow understanding the expected heating and cooling consumption based on easily available information. In this work, a numerical methodology has been applied to estimate the thermal loads of a building without internal gains. For this purpose, a simulation environment has been developed to execute a sensitivity analysis through the interconnection between TRNSYS 16.1 and GenOpt programs. Volumetry, building materials according to Spanish regulations and percentage of external windows are evaluated as analysis variables of the parametric study. Heating, and cooling loads have been calculated to quantify their influence: Older regulations imply higher annual loads; the increase in building height and area reduces the annual thermal loads and higher percentages of glazing on the external façades imply higher annual demands, particularly in the east and west orientations; the variation of the envelope results in the most influential factor. Finally, a statistical study has been performed to assess the annual trends: Heating trends point to more stability with two defined intervals, while cooling trends are more asymmetric.<hr/>RESUMEN El análisis de las características de un edificio indica que hay algunas incertidumbres que influyen en su rendimiento energético: clima, volumetría o condiciones de funcionamiento. Es importante contar con un sistema asequible que realice este análisis y la gestión energética optimizando el acoplamiento entre producción y consumo. Conocer la relación entre las necesidades térmicas y diferentes parámetros constructivos puede ayudar a definir este sistema, permitiendo comprender el consumo previsto de calefacción y refrigeración en base a información fácilmente disponible. En este trabajo se ha aplicado una metodología numérica para estimar las cargas térmicas de un edificio sin ganancias internas. Para ello se ha desarrollado un entorno de simulación con el que ejecutar un análisis de sensibilidad, acoplando los programas TRNSYS 16.1 y GenOpt, para evaluar diversas variables de análisis del estudio paramétrico: Volumetría, materiales de construcción según normativas españolas y porcentaje de ventanas exteriores. Se han calculado las cargas de calefacción y refrigeración para cuantificar su influencia: Las normativas más antiguas implican cargas anuales más elevadas; mayor altura y superficie del edificio reduce las cargas, y mayores porcentajes de ventanas en las fachadas implican mayores demandas, particularmente en orientaciones Este y Oeste. La variación de la envolvente resulta el factor más influyente. Finalmente se ha realizado un estudio estadístico para evaluar las tendencias anuales. En calefacción muestran mayor estabilidad con dos intervalos definidos, mientras en refrigeración se observa más asimetría. <![CDATA[Evaluación de los niveles de ruido y ozono en una zona industrial urbana]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400076&lng=es&nrm=iso&tlng=es ABSTRACT Monitoring environmental parameters in urban centers has become a critical step for health risk assessment. In this study, conducted in the industrial park of Mirandela (Portugal), an environmental monitoring system consisting of a meteorological station, a class 1 smart sound sensor and three reference optical gas analyzers were deployed to measure noise levels, tropospheric ozone concentrations, carbon monoxide, and nitrogen oxides, during winter and spring of 2019. The interdependence among all variables was evaluated, and legal compliance was assessed according to the European Union (EU) target values for ozone. Higher concentrations of nitrogen oxides and carbon monoxide were observed during rush hours, while ozone concentrations increased as a consequence of the emissions of primary pollutants after sunrise reaching their maximum values at about 13:00 to 14:00h. Regarding the Accumulated Ozone Exposure (AOT), both target values set by the EU for AOT40 vegetation and forest have been exceeded. For AOT60, the observed values were below target; however, the threshold for NET60 was exceeded even before the end of 2019. Noise levels were higher during rush hours, because of higher traffic intensity; however, noise level indicators (Lden, Ln) remained within the legal limits. It was possible to realize that urban traffic is the most relevant source of noise and local air pollution. These results can be used to define strategies that may improve the environmental performance of the studied industrial park.<hr/>RESUMEN La vigilancia de los parámetros medioambientales es una acción importante para la evaluación de riesgos para la salud en los centros urbanos. En este estudio, realizado en el parque industrial de Mirandela (Portugal), se implementó un sistema de monitoreo medioambiental compuesto por una estación meteorológica, un sonómetro de clase 1 y tres analizadores ópticos de gases, para monitorizar los niveles de ruido, las concentraciones de ozono, monóxido de carbono, y óxidos de nitrógeno durante la primavera y invierno de 2019. Se evaluó la interdependencia entre las variables y el cumplimiento legal con los valores objetivo para el ozono establecidos por la Unión Europea (UE). Se observaron concentraciones más altas de óxidos de nitrógeno y monóxido de carbono durante las horas de punta, mientras que las concentraciones de ozono aumentaron por las emisiones de contaminantes primarios, alcanzando valores máximos aproximadamente de las 13:00 a 14:00h. Cuanto a la Exposición Acomumulada a Ozono (AOT), se han excedido los valores objetivos para AOT40. Mientras que para AOT60, el valor observado estaba abajo del objetivo, sin embargo, se ha excedido el indicador NET60. Los niveles de ruido fuéron mayores en las horas de punta, relacionados con la mayor intensidad de tráfico, pero los indicadores de ruido (Lden, Ln) permanecieron dentro de los límites legales. Los resultados obtenidos pueden ser utilizados para centrar los esfuerzos en la mejora de la calidad medioambiental del parque industrial. <![CDATA[Evaluación de las Bacterias Acido Lácticas (BAL) frente a <em>Shigella sonnei</em> ATCC 25931]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400089&lng=es&nrm=iso&tlng=es ABSTRACT The main functions of Lactic Acid Bacteria (LAB) are the production of organic acids and their characteristic as inhibitors of pathogenic microorganisms. Disease caused by Shigella sonnei is a public health risk factor, as is the resistance they develop to antibiotics. Accordingly, in this study 4 LAB isolated from coffee, quesillo, and breast milk were evaluated under in vitro conditions on Shigella sonnei, considering the presence and cell-free filtration of LAB. The LAB strains were also studied via an antibiotic test using Penicillin, Ceftriaxone, and Ciprofloxacin. The results showed antagonistic activity against Shigella sonnei due to the presence of cells and organic acids. However, the LAB bacteriocins did not inhibit the pathogen. Furthermore, LABs were sensitive to the antibiotics tested. Products from the region such as coffee and quesillo, as well as breast milk are important for their nutritional value and for their LAB content. It would be useful to involve biotechnological research in the coffee and dairy chain on the one hand, and to promote breastfeeding on the other. The tests carried out are qualitative and the inhibitory effect is attributed to the strain and not to a generalization of species. It would also be useful to perform molecular identification of the lactic acid strains studied to introduce them in other food matrices, to evaluate their viability, and to carry out in vivo tests to assess their antimicrobial activity.<hr/>RESUMEN La principal función de las Bacterias Ácido Lácticas (BAL) es la producción de ácidos orgánicos, además cumple la función de inhibición de microorganismos patógenos. La enfermedad causada por Shigella sonnei es un factor de riesgo para la salud pública, al igual que la resistencia que desarrollan a los antibióticos. Por lo tanto, en este estudio se evaluaron 4 BAL aisladas de café, quesillo y leche materna en condiciones in vitro sobre Shigella sonnei considerando la presencia y la filtración libre de células BAL. Además, las cepas de BAL fueron estudiadas mediante antibiograma con Penicilina, Ceftriaxona y Ciprofloxacina. Los resultados mostraron actividad antagónica frente a Shigella sonnei debido a la presencia de células y los ácidos orgánicos; sin embargo, las bacteriocinas de las BAL no inhibieron el patógeno. Además, las BAL presentaron sensibilidad a los antibióticos evaluados. Los productos de la región como café, quesillo y leche materna son de importancia por su contenido nutricional y la presencia de BAL. Es relevante involucrar la investigación biotecnológica en la cadena del café, lácteos y promocionar la lactancia materna; las pruebas realizadas son de carácter cualitativo y el efecto inhibitorio se atribuye a la cepa y no a una generalización de especie, es importante realizar identificación molecular de las cepas lácticas estudiadas, introducirlas en otras matrices alimentarias evaluando la viabilidad de las mismas y realizar pruebas in vivo para verificar la actividad antimicrobiana. <![CDATA[Control óptimo distribuido para sistemas de distribución con microrredes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400098&lng=es&nrm=iso&tlng=es ABSTRACT The growing consumption of electricity and the progressive development of new technologies imply that the power system is increasingly automated with the purpose of having a more efficient and economical operation. This development drives the system to a Smart Grid, a large-scale cyber-physic network covering different energy generation technologies, storage and communications, enabling real-time information exchange and control. In this work, we present an optimal distributed control based on the consensus+innovation technique, where each agent on the network obtains information from its neighbours. Simulations of a microgrid system based on an IEEE 34 nodes test feeder demonstrate the effectiveness of the approach. Convergence is observed in the microgrid system under different scenarios in the physical and communications network.<hr/>RESUMEN El creciente consumo de energía eléctrica, así como el progresivo desarrollo de nuevas tecnologías, conlleva a que el sistema eléctrico sea cada vez más automatizado con el propósito de contar con una operación más eficiente y económica. Dicho desarrollo orienta al sistema a ser una Smart Grid, un sistema ciber-físico de gran escala que abarca diferentes tecnologías de generación de energía, almacenamiento y comunicaciones que permiten intercambio de información en tiempo real y control sobre los parámetros de la red. En este trabajo, una aproximación del control óptimo distribuido basado en la técnica consenso+innovación es presentada, donde cada agente de la red obtiene información de sus vecinos. Simulaciones sobre un sistema de microrredes basado en un sistema de referencia IEEE 34 nodos demuestran la efectividad del enfoque. Se observa convergencia en el sistema de microrredes bajo diferentes escenarios en la red física y de comunicaciones. <![CDATA[Algoritmo híbrido mediante descriptores Markov y SIFT para la detección de la falsificación de imágenes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302022000400111&lng=es&nrm=iso&tlng=es ABSTRACT Today, image forgery is common due to the massification of low-cost/high-resolution digital cameras, along with the accessibility of computer programs for image processing. All media is affected by this issue, which makes the public doubt the news. Though image modification is a typical process in entertainment, when images are taken as evidence in a legal process, modification cannot be considered trivial. Digital forensics has the challenge of ensuring the accuracy and integrity of digital images to overcome this issue. This investigation introduces an algorithm to detect the main types of pixel-based alterations such as copy-move forgery, resampling, and splicing in digital images. For the evaluation of the algorithm, CVLAB, CASIA V1, Columbia, and Columbia Uncompressed datasets were used. Of 7100 images evaluated, 3666 were unaltered, 791 had resampling, 2213 had splicing, and 430 had copy-move forgeries. The algorithm detected all proposed forgery pixel methods with an accuracy of 91%. The main novelties of the proposal are the reduced number of features needed for identification and its robustness for the file format and image size.<hr/>RESUMEN Hoy en día, la falsificación de imágenes es común debido a la masificación de las cámaras digitales de alta resolución y bajo costo, junto con la accesibilidad de los programas de computadora para el procesamiento de imágenes. Todos los medios de comunicación se ven afectados por este tema, lo que hace que el público dude de la noticia. Aunque la modificación de imágenes es un proceso común en el entretenimiento, cuando las imágenes se toman como evidencia en un proceso legal, la alteración no puede considerarse trivial. La ciencia forense digital tiene el desafío de garantizar la precisión y la integridad de las imágenes digitales para superar este problema. Esta investigación introduce un algoritmo para detectar los principales tipos de alteraciones basadas en píxeles, como copy-move, resamplig y splicing en imágenes digitales. Para la evaluación del algoritmo se utilizaron las bases de datos CVLAB, CASIA V1, Columbia y Uncompressed Columbia. Se evaluaron 7.100 imágenes, de las cuales 3666 eran auténticas, 791 tenían resampling, 2213 tenían splicing y 430 tenían falsificaciones de copy-move. El algoritmo detectó todas las alteraciones basadas en pixeles con una precisión del 91%. Las principales novedades de la propuesta son el reducido número de características necesarias para la identificación y su robustez al formato y tamaño de la imagen.