SciELO - Scientific Electronic Library Online

 
vol.10 issue18Unit timing for environmental noise measurementsTools for reliability analysis in geotechnical engineering: Application author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Revista Ingenierías Universidad de Medellín

Print version ISSN 1692-3324On-line version ISSN 2248-4094

Rev. ing. univ. Medellín vol.10 no.18 Medellín Jan./June 2011

 

Herramientas para análisis por confiabilidad en geotecnia: La teoría

 

Tools for reliability analysis in geotechnical engineering: The theory

 

 

César Augusto Hidalgo Montoya*; André Pacheco de Assis**

* Ingeniero civil, magíster en Geotecnia de la Universidad de Brasilia, profesor asociado de la Universidad de Medellín. teléfono 4344932, e-mail chidalgo@udem.edu.co
** Ingeniero civil de la Universidad de Brasilia, Brasil; doctor en Geotecnia de la Universidad de Alberta, Canadá. Profesor titular de la Universidad de Brasilia. Teléfono 55-61-3107-0965. e-mail: aassis@unb.br

 

 


Resumen

En este trabajo se analizan algunas de las fuentes de incertidumbre en los diseños geotécnicos como son la determinación de los parámetros mecánicos y las suposiciones realizadas para definir los modelos y teorías empleados. Posteriormente, se presentan y comparan tres técnicas probabilísticas para la evaluación de la incertidumbre en diversos procesos geotécnicos.

Palabras clave: confiabilidad, incertidumbre, mecánica de suelos, mecánica de rocas.
Abstract

In this work, many sources of uncertainty in geotechnical design as the estimation of mechanical parameters and the premises for models and theories are analyzed. Subsequently, three probabilistic tools for valuation of the uncertainty in many geotechnical processes are presented and compared.

Key words: reliability, confidence, uncertainty, soil mechanics, rock mechanics.

 

 

INTRODUCCIÓN

Tradicionalmente, en la práctica de la ingeniería geotécnica, la incertidumbre de los parámetros y de los modelos se ha tratado de manejar por medio de la magnitud de los factores de seguridad o confiando en la experiencia de los ingenieros a cargo de los diseños. Otra forma ha sido el método observacional, en el cual se van ajustando los diseños a medida que se construye. Sin embargo, las exigencias de los proyectos y el desarrollo de nuevas técnicas exigen y permiten que la incertidumbre pueda ser manejada de una manera más rigurosa en los procesos de diseño geotécnico.

Por otro lado, existen nuevas exigencias normativas como las del Eurocódigo 7, que pide la evaluación de la variación de los parámetros involucrados en análisis de estado límite y la determinación de las causas y/o los modos de obtener un estado límite (falla); las posibles consecuencias de la falla en términos de riesgos de vida, lesiones y potenciales pérdidas económicas; la aversión publica a la falla; y los costos y procedimientos necesarios para reducir el riesgo de falla.

Dado que en Colombia aún son poco usadas estas técnicas y con el objeto de difundirlas, en este trabajo se presenta un análisis de algunas de las fuentes de incertidumbre en trabajos geotécnicos; posteriormente se presentan tres técnicas probabilísticas que permiten considerar la incertidumbre en el diseño geotécnico. Este trabajo es complementado por el artículo "Herramientas para análisis por confiabilidad en geotecnia: Aplicaciones", que ha sido sometido a esta misma revista.

 

1 INCERTIDUMBRE EN GEOTECNIA

Los procesos y análisis en geotecnia están altamente cargados de incertidumbre y existen muchas fuentes que la generan. En general y como una primera aproximación, las fuentes de incertidumbre en geotecnia se han clasificado en incertidumbre de los datos y de los modelos [1, 2]. Otros autores como Baecher y Christian [3] clasifican la incertidumbre en la ingeniería geotecnia en tres grandes categorías: variabilidad natural, incertidumbre epistémica e incertidumbre en los modelos de decisión.

La variabilidad natural está asociada con la aleatoriedad inherente a los procesos naturales, manifestándose como variabilidad en el tiempo para fenómenos que toman lugar en un único lugar (variación temporal), o variabilidad en el espacio para eventos que se producen en diferentes lugares al mismo tiempo (variación espacial), o variaciones tanto en el espacio como en el tiempo. Esta variabilidad natural se aproxima usando modelos matemáticos simplificados o modelos físicos, los cuales solo proporcionan una aproximación al fenómeno natural en el mejor de los casos.

La incertidumbre epistémica es atribuida a la carencia de datos, ausencia de información acerca de eventos y procesos, o a la falta de entendimiento de las leyes físicas que limitan la habilidad para modelar el mundo real. En ocasiones, esta incertidumbre puede ser llamada también subjetiva o interna.

En aplicaciones geotécnicas, la incertidumbre epistémica se puede dividir en tres subcategorías: incertidumbre en la caracterización del sitio, incertidumbre en los modelos e incertidumbre en los parámetros.

La incertidumbre en la caracterización del sitio depende de la adecuada interpretación que se hace de la geología sub-superficial. Esto resulta de la incertidumbre de los datos y de la exploración, incluyendo errores de medición, inconsistencia y heterogeneidad de los datos, manipulación de los datos y errores de transcripción, e inadecuada representatividad del muestreo debido a limitaciones de tiempo y espacio. Otro factor que se debe considerar son las limitaciones económicas a la hora de hacer la exploración y el muestreo.

La incertidumbre de los modelos depende del nivel de precisión con que el modelo matemático escogido representa la realidad. Esta incertidumbre refleja la inhabilidad de un modelo o técnica de diseño para representar, precisamente, el verdadero comportamiento físico del sistema, o la inhabilidad del diseñador para identificar el mejor modelo.

La incertidumbre en los parámetros depende de la precisión con que los parámetros del modelo pueden ser estimados. Resulta de la inexactitud en la determinación de los valores de los parámetros a partir de ensayos o calibración de datos y es exacerbado por el número limitado de observaciones, que producen imprecisión estadística.

En cuanto a la obtención de parámetros del suelo se pueden destacar las siguientes fuentes de incertidumbre:

• Error estadístico debido a la cantidad insuficiente de ensayos, de mediciones piezométricas, etc. Se sabe que cuanto menor es el número de ensayos, mayor es la probabilidad de producir estimativos de parámetros diferentes de aquellos presentes en el campo. Muchos autores presentan indicaciones buscando minimizar esta condición.

• Datos tendenciosos (sesgos), que son aspectos del comportamiento real persistentemente alterados por los ensayos, resultados de instrumentación etc. Se pueden citar ejemplos de estos factores: remoldeo de las muestras, diferencias de tipo de solicitación en los ensayos y en el campo, diferencias en la velocidad de carga en los ensayos y en el campo, etc.

• Errores de ensayo (ruidos) son aquellos asociados a la precisión de calibración y mediciones, la exactitud de las lecturas, etc. La minimización de estos errores es obtenida a través de la correcta especificación, calificación del personal y de equipos, acompañamiento de los ensayos y mediciones;

• Variabilidad espacial (natural o inherente) de los parámetros, que es la diferencia real de características del comportamiento debidas a diferencias de composición, meteorización e historia de tensiones entre un punto y otro.

Los dos primeros aspectos analizados contribuyen a lo que se denomina "error sistemático", que actúa independiente de la posición o del tamaño del volumen de análisis o superficie de falla, y afecta principalmente la media. Aquí, el aumento del número de ensayos (para disminuir el error estadístico) se debe evaluar por la experiencia del ingeniero (para compensar los sesgos). Los dos últimos aspectos contribuyen principalmente a la dispersión de los datos.

Cuando no se dispone de un número suficiente de ensayos, se puede, con carácter preliminar, utilizar coeficientes de variación estimados (desviación estándar sobre la media), a partir de valores típicos que han mostrado tener poca sensibilidad temporal y espacial. En la tabla 1 se presentan rangos típicos de coeficientes de variación de los parámetros geotécnicos de interés para análisis de estabilidad de taludes.

La variabilidad de los parámetros geotécnicos que tienen influencia en los procesos de análisis de riesgo por deslizamiento puede ser manejada mediante técnicas estadísticas y probabilísticas. Según USACE [5], los valores de los momentos probabilísticos pueden ser estimados de varias formas, entre las cuales se pueden citar:

• Análisis estadísticos de determinaciones en ensayos del parámetro deseado,
• Ensayos índice que pueden ser correlacionados con el parámetro deseado, y
•Basados en criterio y experiencia cuando no hay datos disponibles.

Estas dos últimas opciones tienen que ser evaluadas con mucho cuidado, ya que el nivel de incertidumbre se incrementa gradualmente desde el primero hacia los últimos. Esto implica que cuando se diseña una estructura nueva utilizando correlaciones o datos basados en la experiencia, esto solo se pueda aceptar mediante un incremento de los factores de seguridad o mediante un ajuste en los parámetros de diseño (reduciendo la resistencia). En el caso de análisis de confiabilidad, la utilización de correlaciones o datos definidos por la experiencia el problema puede ser enfrentado asumiendo un coeficiente de variación mayor que en el caso de los datos medidos directamente.

En adición a la variabilidad natural, y la incertidumbre epistémica, dos tipos prácticos de incertidumbre algunas veces también entran en los análisis de confiabilidad y de riesgo. Estos tienen relación con la implementación de diseños en la práctica y con los factores económicos atendiendo cálculos de relaciones costo-beneficio. Estas son incertidumbres operacionales, que incluyen aquellas asociadas con la construcción, manufactura, deterioro, mantenimiento y factores humanos no considerados en los modelos ingenieriles de desempeño; e incertidumbres de decisión que describen la inhabilidad de los diseñadores para conocer o identificar objetivos sociales o prescribir tasas de descuento social, la longitud de un horizonte de planeación, tendencias temporales deseables de consumo e inversión o la aversión social al riesgo.

 

2 CONFIABILIDAD Y PROBABILIDAD DE FALLA

La confiabilidad se puede entender como la posibilidad que tiene un sistema para desempeñar las funciones para las que fue concebido. Por otro, una falla es todo comportamiento que se pueda considerar anómalo.

Los análisis de confiabilidad tratan de la relación entre las cargas que un sistema puede sufrir y la capacidad que éste tiene para soportarlas. En geotecnia tanto las cargas como la resistencia son inciertas, por lo tanto, el resultado de esta interacción también es incierto. En estadística se puede definir la confiabilidad como

(1)

Donde α es la confiabilidad y P(r) es la probabilidad de que se produzca la falla.

Actualmente, es común expresar la confiabilidad en la forma de un índice de confiabilidad, que se relaciona con una probabilidad de falla. Se puede entender en este contexto que la falla incluye no solamente fallas catastróficas sino cualquier diferencia inaceptable entre el comportamiento esperado y el observado.

El índice de confiabilidad, β, del coeficiente o factor de seguridad (FS), es definido por la siguiente expresión [3, 9], toda vez que el FS crítico es igual a 1,0:

(2)

Donde E[FS] es el valor esperado del factor de seguridad, es decir, el factor de seguridad calculado con los parámetros medios de las variables independientes y s[FS] es la desviación estándar del factor de seguridad.

El método relaciona el índice β con la probabilidad de ruptura, lo que permite una evaluación más consistente de la estabilidad. En principio, la ecuación 2 es usada en forma general para cualquier distribución de probabilidad del factor de seguridad, sin embargo, es muy usual privilegiar el uso de la distribución normal. Esto implica que las distribuciones de la resistencia del suelo o de la roca y de las cargas aplicadas también sean normales. Para conocer más detalles de este índice y sobre el uso de otras distribuciones como la log normal pueden consultarse referencias como [2, 3, 10].

La probabilidad de falla está dada por la porción del área bajo a curva unitaria de distribución de frecuencia (función densidad de probabilidad) del FS correspondientes a los valores de FS inferiores a 1.0. Esta se puede determinar de cualquier tabla de función de distribución de probabilidades normal con media 0 y desviación estándar 1 o utilizando herramientas computacionales como el Excel®.

 

3 MÉTODOS PROBABILÍSTICOS

Los métodos probabilísticos son aquellos que permiten la evaluación de la distribución de probabilidades de una variable dependiente en función del conocimiento de las distribuciones estadísticas de las variables independientes que la generan. Entre los métodos más utilizados en la estadística aplicada a la geotecnia están el método de Monte Carlo, el método de Primer Orden Segundo Momento-FOSM y el método de estimativas puntuales de Rosenblueth [11].

 

4 MÉTODO DE MONTE CARLO

El método de Monte Carlo es una metodología que permite determinar la función de distribución de frecuencia de la variable dependiente analizada mediante la generación de números aleatorios uniformes que representan las variables independientes envueltas. Este método considera que la variable dependiente estudiada presenta una función Y=f(X1, X2...Xn) y que son conocidas las distribuciones de probabilidad de las variables X1, X2...Xn. Son atribuidos valores de frecuencia a valores aleatorios de las variables X1, X2...Xn y se evalúa la función Y para estos valores. El proceso se repite de forma iterativa tantas veces como sea necesario para conseguir la convergencia de la distribución de probabilidad. Conviene resaltar que la mayoría de las técnicas para generación de valores de distribución hacen uso dela función de distribución acumulada, F(r) = P[x < r]. Por definición la función acumulada para cualquier variable continua es distribuida uniformemente en el intervalo [0, 1].

Consecuentemente, si el valor aleatorio Ru (0, 1) es generado, el valor de x = r que satisface F(r) = Ru (0, 1) será un valor aleatorio de la función de distribución de probabilidad f(x) dentro de F(r). En la figura 1 se muestra el proceso de conversión de un número aleatorio en un valor de la función por medio de una distribución de probabilidades.

La principal aplicación de la técnica de Monte Carlo está en la aproximación de la función de probabilidad para una o más variables aleatorias. Cabe recordar que la simulación de Monte Carlo requiere una capacidad alta en los cálculos, para la generación de una amplia gama de números.

Para este proceso son necesarias varias tentativas, que conducen al éxito dentro de un nivel específico de confianza. Cada tentativa es el resultado de un experimento en el cual la probabilidad de éxito R y la probabilidad de fracaso 1 - R, son todas las tentativas independientes. Por consiguiente, las iteraciones generan una distribución binomial. Para N tentativas, donde N es amplio, puede ser usada la aproximación normal para la distribución binomial con valor esperado NR y desviación estándar NR(1R).

El método de Monte Carlo puede ser presentado como un método exacto, pues a partir del conocimiento de las distribuciones estadísticas de las variables independientes, valores de estas variables podrían ser obtenidos por medio de un generador de números aleatorios y valores de la variable independiente calculados a partir de estos. Se puede decir que cuando este proceso sea repetido N veces, la distribución de probabilidad (forma y magnitud) de la variable dependiente sería obtenida, para (1-α)% de confianza. A partir de esta distribución pueden ser calculados sus parámetros estadísticos tales como media, varianza, probabilidades acumuladas, etc.

 

5 MÉTODO FOSM

El denominado método FOSM ("First-Order, Second Moment") utiliza la serie de Taylor para la determinación de la distribución de probabilidad de una función con un número de variables aleatorias [3].

El truncamiento de la función de expansión de la Serie de Taylor forma la base de este método y las salidas y entradas de datos son expresadas por valores esperados y desviación estándar. Las ventajas de este tipo de solución radican en que los cálculos matemáticos son simplificados y se requiere apenas del conocimiento de los valores de los momentos de las distribuciones estadísticas de las variables que forman la función.

Para N variables aleatorias no correlacionadas, F(x1, x2,........, xN), conservando solamente los términos lineales en la Serie de Taylor, produce:

(3)

(4)

Donde

La función F es evaluada para los puntos medios de todas las variables, así como la varianza de F. En las expresiones anteriores, la serie de Taylor fue truncada a partir de sus términos de segundo orden, despreciándose portando los efectos de los terceros y cuartos momentos probabilísticos. Sin embargo, esta aproximación es plenamente aceptable para fines prácticos [3]. Los valores de las derivadas pueden ser obtenidos mediante el cálculo analítico, pero es más usual y recomendable usar la aproximación numérica presentada por Christian et al. [9].

(5)

 

6 MÉTODO DE LAS ESTIMATIVAS PUNTUALES

Rosenblueth [11] propuso un método aproximado que simplifica mucho la tarea de estimar la media y la desviación estándar del factor de seguridad y solamente compromete ligeramente la exactitud cuando las dispersiones de las variables envueltas son muy grandes. Consiste en estimar los momentos (media, desviación estándar, coeficiente de asimetría, etc.) de la variable dependiente en función de las variables aleatorias independientes, para las cuales se conocen por lo menos dos momentos, media y desviación estándar (o por lo menos sus estimativas), sin la necesidad de conocer las distribuciones de probabilidad completas de las variables independientes o de la dependiente.

Suponiendo que exista una función bien definida que una la variable dependiente a las independientes, con procedimientos simples se puede trabajar con la variabilidad sin introducir complejidades numéricas muy grandes en el análisis determinístico. Se trata de ponderar la participación de cada variable, calculando dos valores de la función de densidad de probabilidad arbitrariamente escogida para cada variable independiente (Xi), lo que resultará en concentraciones Pi donde se tendrán puntos de estimativa de la variable dependiente (F), que servirán para el cálculo de los momentos de F.

Rosenblueth [11] y Baecher y Christian [3] presentan en detalle la deducción de las expresiones de este método para una, dos, tres y múltiples variables. Para el caso en que Y depende de n variables aleatorias y considerando que las n variables sean no correlacionadas entre sí, se pueden obtener las estimativas de la media y de la desviación estándar de F mediante las fórmulas

(6)

(7)

Los valores de fi son obtenidos con la aplicación de la función que define la dependencia entre F de las variables independientes, sustituyendo alternadamente los valores de esas variables por con j=1,2,...n, se obtienen de esa forma los 2n valores de fi.

En el método de estimativas puntuales [11], se toman combinaciones de los valores en las estimativas puntuales máximas (Xi + s[Xi]) y mínimas (Xi-s[Xi]) para cada variable independiente. Por tanto, son necesarios 2n análisis separados. En el caso de análisis de estabilidad de taludes, a cada análisis se hace una nueva búsqueda de la superficie crítica, la cual puede diferir significativamente de aquella calculada con los valores medios del método FOSM.

Asumiendo una distribución normal (Gauss) para los valores de F, que podría ser la función del factor de seguridad de un problema dado, calculados con las variables en las estimativas puntuales, el valor esperado E[F] puede ser calculado por el primer momento de la distribución:

(8)

(9)

Combinando los resultados de estos métodos probabilísticos con el índice de confiabilidad de la ecuación 2, resulta fácil determinar la probabilidad de falla (Pr) de un sistema. En cualquier caso Pr es la probabilidad de que el factor de seguridad sea inferior a la unidad.

 

7 COMENTARIOS FINALES

Los métodos probabilísticos constituyen herramientas robustas para la evaluación y análisis de problemas geotécnicos bajo ambientes de incertidumbre, pero requieren como datos de entrada valores de parámetros estadísticos que no son fáciles de obtener debido a las grandes incertidumbres asociadas con los procesos geotécnicos.

En los casos en que la información es escasa, los análisis de sensibilidad y de confiabilidad permiten evaluar los posibles escenarios que se pueden presentar para una determinada obra y determinar necesidades de estudios más profundos.

 

REFERENCIAS

[1] H. Einstein, "Uncertainty in Rock Mechanics and Rock Engineering-Then and Now." presentado a International Society for Rock Mechanics 10th Congress Technology roadmap for Rock Mechanics, Pretoria: SAIMM, pp. 281-293, 2003.         [ Links ]

[2] F. Nadim, "Tools and Strategies for Dealing with Uncertainty in Geotechnics," en Probabilistic Methods in Geotechnical Engineering, D. V. Griffths y G. A. Fenton, eds., pp. 71-96, Nueva York: Springer, 2007.         [ Links ]

[3] G. Baecher, B, y J. T. Christian, Reliability and Statistics in Geotechnical Engineering, Chichester: John Wiley & Sons, 2003, 605 p.         [ Links ]

[4] R. H. C. Ribeiro, "Aplicações de probabilidade e estatística em análises geotécnicas," Tesis de doctorado en ingeniería civil, Pontifícia Universidade Católica do Rio de Janeiro, Río de Janeiro, 2008.         [ Links ]

[5] USACE, "Risk-Based Analysis in Geotechnical Engineering for Support of Planning Studies", ETL 1110-2-556, U. S. Army Corps of Engineers, 1999         [ Links ]

[6] J. M. Duncan, "Factors of safety and reliability in geotechnical engineering," J. of Geot. and Geoenv. Eng, vol. 126, no. 4, pp. 307-316, 2000.         [ Links ]

[7] C. A. Hidalgo et al., "Caracterización de un macizo rocoso utilizando ensayos de carga puntual y triaxiales," en Memorias de la XII Conferencia Panamericana de Mecánica de Suelos e Ingeniería Geotécnica, P. J. Culligan, H. H. Einstein y A. J. Whittle, eds., pp. 495-500, Cambridge: Verlag Glückauf Essen, 2003.         [ Links ]

[8] C. A. Hidalgo et al., "Determinación de la resistencia de la roca intacta en la caracterización de macizos rocosos," Revista Ingenierías Universidad de Medellín, vol. 1, no. 3, pp. 89-102, 2003.         [ Links ]

[9] J. T. Christian et al., "Reliability Applied to Slope Stability Analysis," J. of Geot. Eng, vol. 120, no. 12, pp. 2180-2207, 1994.         [ Links ]

[10] T. H. Wu, "Reliability analysis of slopes," en Reliability-Based Design in Geotechnical Engineering-Computations and Applications, K. K. Phoon, ed., pp. 385-412, Londres: Taylor-Francis, 2008.         [ Links ]

[11] E. Rosenblueth, "Point estimates for probability moments," Proc. Nat. Acad. of Sc, vol. 72, no. 10, pp. 3812-3814, 1975.         [ Links ]

 

Recibido: 09/04/2010
Aceptado:
06/04/2011

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License