SciELO - Scientific Electronic Library Online

 
vol.23 issue41Exploring capital structure theories in Latin AmericaRisky tax shields and risky debt: an exploratory study author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Cuadernos de Administración

Print version ISSN 0120-3592

Cuad. Adm. vol.23 no.41 Bogotá July/Dec. 2010

 

Cuantificación del riesgo operativo en entidades financieras en Colombia*

 

Andrés Mora Valencia**

* Este artículo es producto del proyecto de investigación Riesgo operativo: parte I, patrocinado por el CESA, Bogotá, Colombia. Versiones de este trabajo se presentaron en el VI Simposio Nacional y III Internacional de Docentes de Finanzas, Bogotá, junio de 2009, seleccionada como la mejor ponencia del evento; 19º Simposio de Estadística, Medellín, Colombia, julio de 2009; Seminario de Economía del Banco de la República, junio de 2009, en la Asobancaria, julio de 2009, y Seminario de Investigación del CESA, abril de 2009. El artículo se recibió el 10-04-2010 y se aprobó el 28-09-2010.

** Magíster en Ingeniería Industrial, Universidad de los Andes, Bogotá, Colombia, 2000; Especialista en Matemáticas Avanzadas, Universidad Nacional de Colombia, Bogotá, Colombia, 2003; Ingeniero Industrial, Universidad del Valle, Cali, Colombia, 1997. Profesor investigador, Colegio de Estudios Superiores de Administración (CESA). Correo electrónico: amora@cesa.edu.co.

RESUMEN

El propósito del artículo es responder si es posible implementar modelos de medición avanzada para cuantificar riesgo operativo en instituciones financieras en Colombia. Así, se comparan dos modelos desde el enfoque de distribución de pérdidas agregadas, por medio de simulaciones de Montecarlo. Este enfoque se basa en la teoría de riesgos de seguros para obtener la distribución de pérdidas y estimar el valor en riesgo al 99,9% en un período de un año. El primer modelo, propuesto por Böcker y Klüppelberg, se obtiene con una fórmula cerrada cuando las pérdidas se ajustan a una distribución subexponencial. El otro modelo está basado en la teoría del valor extremo. Al aplicarlo a las pérdidas por riesgo operativo del 2008 de las entidades financieras colombianas, se encuentra que la máxima pérdida esperada en el 99,9% de los mejores casos es de 3,2 mil millones de pesos, considerado "razonable" según los activos.

Palabras clave: Riesgo operativo, enfoque de distribución de pérdidas agregadas, distribución subexponencial, teoría del valor extremo.

Quantifying operating risk in financial institutions in Colombia

ABSTRACT

This article aims to determine if advanced measuring models can be implemented to quantify operating risk in financial institutions in Colombia. Thus, two models are compared from the aggregate loss distribution approach, using Montecarlo simulations. That approach is based on the insurance risk theory to obtain loss distribution and estimate the value at risk at 99.9% for a one-year period. The first model, proposed by Böcker and Klüppelberg, is obtained by using a closed formula when losses adjust to a subexponential distribution. The second model is based on the extreme value theory. Upon applying it to the Colombian financial institutions' losses due to operating risk in 2008, the author found that the maximum expected loss in 99.9% of the best cases is COP 3,200,000,000, which is considered "reasonable" based on their assets.

Key words: Operating risk, aggregate loss distribution approach, subexponential distribution, extreme value theory.

Quantificação do risco operacional em entidades financeiras na Colômbia

RESUMO

O propósito do artigo é responder se é possível implementar modelos de medição avançada para quantificar risco operacional em instituições financeiras na Colômbia. Dessa forma, comparam-se dois modelos desde o enfoque de distribuição de perdas agregadas, através de simulações de Monte Carlo. Este enfoque se baseia na teoria de riscos de seguros para obter a distribuição de prejuízo e estimar o valor em risco em 99,9% em um período de um ano. O primeiro modelo, proposto por Böcker e Klüppelberg, é obtido usando uma fórmula fechada quando as perdas se ajustam a uma distribuição sub-exponencial. O outro modelo está baseado na teoria do valor extremo. Ao aplicá-lo às perdas por risco operacional de 2008 das entidades financeiras colombianas, encontra-se que o prejuízo máximo esperado para 99,9% dos melhores casos é de 3,2 bilhões de pesos, considerado "razoável" de acordo com os ativos.

Palavras chave: Risco operacional, enfoque de distribuição de perdas agregadas, distribuição sub-exponencial, teoria do valor extremo.

Introducción

De acuerdo con la Superintendencia Financiera en su Circular 041 del 2007, el riesgo operativo es la "Posibilidad de incurrir en pérdidas por deficiencias, fallas o inadecuaciones, en el recurso humano, los procesos, la tecnología, la infraestructura o por la ocurrencia de acontecimientos externos. Esta definición incluye el riesgo legal y reputacional, asociados a tales factores"; pero la definición de Basilea II excluye el riesgo estratégico y el reputacional. Generalmente, en los bancos se presenta riesgo operativo por el malfuncionamiento de las unidades en el trabajo diario se vuelve más una cuestión de control de calidad, que cualquier otra cosa.

En el punto 3.2.4.3 de la misma Circular se exige que la unidad de riesgo operativo de las entidades desarrolle los modelos de medición del riesgo operativo; no obstante, sin datos de pérdida, es imposible tener un modelo de medición, y para ello se recomienda un plazo de entre tres y cinco años para construir bases de datos de pérdidas (puesto que la mayoría de los eventos que originan pérdida en riesgo operativo son muy poco frecuentes y, por lo tanto, un período corto de registro de dichos eventos no generaría una estimación confiable del riesgo). Sin embargo, el Comité de Basilea recomienda usar escenarios como el método principal para medir riesgos si los datos históricos son insuficientes.

El Comité de Basilea propone tres enfoques para calcular los requerimientos de capital por riesgo operativo: (1) enfoque de indicador básico (o Basic Indicator Approach [BIA]), (2) enfoque estándar (Standardized Approach [SA]) y (3) enfoque de medición avanzada (Advanced Measurement Approach [AMA]). Las regulaciones del Comité de Basilea parecen estar encaminadas a que los bancos adapten el enfoque AMA dentro de sus sistemas de gestión de riesgo operativo. De esta manera, se cree que en el futuro la gran mayoría de las entidades financieras incorporarán los modelos AMA y, por ende, este será el enfoque estándar para la gestión de riesgo operativo. Actualmente, los enfoques BIA y SA son los más llamativos, por requerir menor costo de inversión; pero en el futuro perderán su relevancia, debido a que no cumplen con todos los requisitos de una adecuada gestión de riesgos (Kraujalis, Karpavičienė y Aurelijus, 2006). Otra ventaja del enfoque AMA es que parece ser que el capital regulatorio estimado resulta ser menor que el de los otros dos enfoques (Moosa, 2007).

Sin embargo, implementar el enfoque AMA requiere cumplir ciertas condiciones. Según el Comité de Basilea, una entidad financiera que quiera implementar un modelo AMA está obligada a seguir los siguientes requisitos:

(1) la junta directiva o la gerencia, dependiendo de sus funciones, estar involucrada en el sistema de administración de riesgo operativo, y (2) las entidades financieras, tener un sistema de administración, el cual es conceptualmente implementado con integridad. Así mismo, contar con los recursos suficientes para el uso del enfoque en las líneas de negocio, así como los procedimientos de control y auditoría.

Dentro de los modelos AMA se describen tres metodologías: enfoque de medición interna (Internal Measurement Approach [IMA]), enfoque de distribución de pérdidas (Loss Distribution Approach [LDA]) y cuadros de mando (scorecards). Este documento se centra en el modelo LDA para calcular riesgo operativo y no trata los elementos adicionales para una adecuada gestión de riesgo operativo.

Estamos interesados en calcular medidas de riesgo para estimar un capital regulatorio basado en un valor en riesgo (VaR) al 99,9% para un período de un año. Muchos bancos en el mundo calculan medidas de riesgo con una confiabilidad de entre el 99,96% y el 99,98% (Jobst, 2007). Basilea II reconoce siete tipos de riesgos y ocho líneas operativas para los bancos. Los riesgos operativos (o los tipos de pérdida) se clasifican así:

• Fraude interno.

• Fraude externo.

• Relaciones laborales.

• Clientes.

• Daños a activos físicos.

• Fallas tecnológicas.

• Ejecución y administración de procesos.

Y clasifica las líneas operativas (o líneas de negocios) de la siguiente manera:

• Finanzas corporativas.

• Emisión, negociación y venta.

• Banca personal y minorista.

• Banca comercial.

• Compensación, liquidación y registro.

• Servicios y custodia de valores.

• Administración de activos.

• Servicios de compra y venta.

Los anexos 1 y 2 describen con detalle los tipos de riesgos operativos (TR) y las líneas operativas (LO), respectivamente, de acuerdo con la regulación colombiana, aunque no necesariamente una entidad financiera deba contar con todas las líneas operativas mencionadas en los anexos.

Este documento describe dos metodologías de cálculo de riesgo operativo a partir de modelos LDA. De esta manera, el artículo se divide en: sección 1, que describe los modelos AMA, mientras la sección 2 presenta los estudios previos para implementar modelos AMA. La sección 3 introduce los modelos LDA, un caso específico de los modelos AMA, y presenta los dos métodos para estimar el valor en riesgo operacional (OpVaR). En la sección 4 se encuentran las simulaciones que usan los métodos descritos en la sección anterior, a pérdidas agregadas cuando las severidades se distribuyen según el modelo de Pareto. En la sección 5 se aplica el método de máxima verosimilitud de Weissman (MLE-W) para estimar el OpVaR con datos de pérdidas por riesgo operativo reportados por las instituciones financieras en Colombia para el 2008. Finalmente en la última sección se concluye.

1. Modelos de enfoque de medición avanzada

Los modelos AMA se basan en el cálculo interno de una entidad financiera de la frecuencia y la severidad (monto de pérdida) por un evento de riesgo operativo. Los modelos LDA combinan las distribuciones de frecuencia y severidad para construir una distribución de pérdidas totales y, con base en esta distribución, calcular la medida de riesgo requerida como un cuantil de dicha distribución. Las estimaciones de potenciales pérdidas por riesgo operativo bajo el enfoque AMA están sujetas a las siguientes condiciones:

• Datos internos.

• Datos externos.

• Análisis de escenarios.

• Entorno del negocio y factores de control interno.

Jobst (2007) resume los tres enfoques que se van a usar en la cuantificación del riesgo operativo y, como se mencionó, este artículo trata uno de los métodos del enfoque AMA. Como las distribuciones de pérdida por riesgo operativo exhiben colas largas, el cálculo del VaR tradicional se queda corto en la medición de altos cuantiles en distribuciones de este tipo. Para ello se utiliza la teoría del valor extremo, que corrige las imperfecciones de un VaR tradicional. Tal teoría1 es una herramienta estadística que desarrolla técnicas y modelos para describir los resultados inesperados, anormales o extremos, como eventos de riesgo operativo.

2. Estudios previos

Moosa (2007) resume estudios empíricos de riesgo operativo. Para tratar el problema de datos, Allen y Bali (2004) estimaron un modelo de riesgo operativo para instituciones financieras usando series de tiempo mensuales de retornos de acciones desde 1973 hasta el 2003. Con ello representaron el modelo a través de un modelo de regresión. Las principales variables explicativas representan riesgo crediticio, riesgo de tasa de interés, riesgo cambiario y riesgo de mercado. Por consiguiente, el residuo de este modelo representa el riesgo operativo. Los autores encontraron que las instituciones financieras tienen considerables grados de exposición al riesgo operativo residual que no habían sido gestionados hasta ese momento.

En de Fontnouvelle, DeJesus-Rueff y Rosengren (2006), la cantidad de capital para soportar el riesgo operativo, a menudo, excederá el capital para riesgo de mercado y sus estimados serán consistentes con el nivel de capital que algunas instituciones financieras de gran tamaño están asignando para el riesgo operativo (entre dos y siete mil de millones de dólares). De esta manera, se muestra que las pérdidas por riesgo operativo son una fuente importante de riesgo para los bancos. Los autores también encontraron que la distribución de pérdidas observadas varía significativamente por línea operativa. También concluyeron que trabajar con datos internos y externos de eventos raros de gran impacto podría mejorar significativamente los modelos de riesgo operativo de los bancos. Desde el punto de vista metodológico, se aplica la técnica picos sobre el umbral (POT)2 a datos de fuentes como OpRisk Analytics y OpVantage, a fin de estimar los parámetros y cuantiles de las distribuciones de las severidades.

En de Fontnouvelle, Rosengren y Jordan (2004) se usaron los datos de pérdida (The 2002 Operational Risk Loss Data Collection Exercise [LDCE]) de seis grandes bancos y se encontró que los de tipos de evento (o también conocidos como tipos de pérdida) son bastante similares a través de los bancos analizados. Además, los resultados son consistentes con las cifras de capital económico reveladas por algunos bancos de gran escala. En su análisis descriptivo de los datos, estos datos de pérdida para la mayoría de las líneas operativas y tipos de pérdida pueden ser bien modelados por distribuciones tipo-Pareto (véase Definición 6), mientras que para el resto, las pérdidas exhiben colas muy largas.

Los autores ajustan distribuciones de severidad paramétrica a los datos de pérdida por tipo de evento y línea operativa, y como estas distribuciones exhiben colas largas, utilizan la técnica de la teoría del valor extremo basado en regresión3, propuesto por Huisman, Koedijk, Kool y Palm (2001), para estimar los parámetros de la distribución y medidas de riesgo. Para modelar la frecuencia de las pérdidas por riesgo operativo, los autores consideraron la distribución Poisson y la distribución binomial negativa. Finalmente, a fin de encontrar la función de distribución de pérdidas, combinaron la distribución de frecuencias con la de severidades, mediante simulación Monte Carlo, y de esta manera calcularon el capital económico como un cuantil alto (puede ser al 99,9%) de esta distribución.

Moscadelli (2004) también analizó los datos de LCDE y comparó la sensibilidad de análisis tradicionales comúnmente utilizados en el campo de actuación con métodos de valores extremos para estimar las distribuciones de severidades. El autor halló que la teoría de valores extremos se desempeña mejor que los métodos tradicionales en todas las ocho líneas operativas. Otro resultado importante es que la estimación del índice de valor extremo de las distribuciones de severidades para tres líneas operativas es significativamente (al 95%) mayor que uno. Estas distribuciones exhiben colas extremadamente largas y son conocidas como modelos de media infinita (infinite mean models) y sus problemas han sido analizados y discutidos por Nešlehová, Chávez-Demoulin y Embrechts (2006), especialmente en lo concerniente a la no subaditividad del VaR, esto es, que el VaR puede guiar a cargos de capital absurdamente altos en estos casos (modelos de media infinita). En sus ejemplos, los autores mostraron que el VaR no es subaditivo para funciones de distribución con colas extremadamente largas con índices de valor extremo mayores que uno, severidades independientes y para un percentil suficientemente grande.

Adicionalmente, si se usa una medida coherente al riesgo, que cumple el axioma de subaditividad (como el conditional tail expectation4), esta medida no está definida para los modelos de media infinita. En un estudio similar al de Moscadelli, Wei (2006) utilizó datos de la base OpVar para calcular el riesgo operativo agregado en las colas, implementando un enfoque bayesiano, a fin de estimar la distribución de frecuencias, y la distribución de las severidades, introduciendo una covariación. Wei concluye que "la principal fuerza del requerimiento de capital es la cola de la distribución y el tamaño de un banco" (2006, p. 3). A continuación se presentan los modelos LDA, el centro de estudio de este artículo.

3. Enfoque de distribución de pérdidas

Los modelos tipo LDA se originan en la teoría de riesgo de seguros. Primero se revisa el modelo estándar LDA, que comprende los modelos de Poisson compuesto y binomial negativo, como casos especiales. Dado que las severidades tienen distribuciones con colas largas, se usa el resultado de Böcker y Klüppelberg, donde los autores obtienen una aproximación a una forma cerrada del OpVaR. Los modelos LDA se componen de tres elementos principalmente: (a) el componente de frecuencia, es decir, el número de pérdidas; (b) el componente de severidad, es decir, la cantidad de las pérdidas individuales, y (c) las pérdidas totales, que se obtiene de "componer" la distribución de la frecuencia con la de la severidad. Las siguientes definiciones y ejemplos son tomados de Böcker y Klüppelberg (2005).

Definición 1 (estándar LDA):

• El proceso de severidad: las severidades (Xk)k∈N son variables aleatorias positivas independientes e idénticamente distribuidas (iid) que describen la magnitud de cada evento de pérdida.

• El proceso de frecuencia: el número N(t) de eventos de pérdida en el intervalo de tiempo [0, t] para t ≥ 0 es aleatorio. El proceso de recuento resultante (N(t))t 0 es generado por una sucesión de puntos (T(n))n 1 de variables aleatorias no negativas que satisfacen:

El proceso de severidad y el proceso de frecuencia se asumen independientes.

El proceso de pérdida agregada: la pérdida agregada S(t) al tiempo t constituye un proceso:

Esta definición no requiere que la media o la varianza de las severidades Xk sea finita; Moscadelli (2005) encuentra que distribuciones usadas para modelar severidades en riesgo operativo exhiben colas muy largas, donde tales momentos no se pueden calcular.

Ejemplo 1 (Poisson-LDA y binomial-negativa-LDA):

• El Poisson-LDA es una estándar LDA, donde (N(t))t ≥ 0 es un proceso de Poisson homogéneo con intensidad λ>0, en particular:

• La binomial-negativa-LDA es una estándar LDA, donde (N(t))t ≥ 0 está dado por un proceso binomial negativo que para β, γ > 0, satisface:

La distribución binomial negativa es una mezcla gamma de una distribución de Poisson, es decir, esta puede verse como una distribución de Poisson donde el parámetro de intensidad λ es una variable aleatoria que se distribuye gamma. N0 denota el conjunto de los enteros no negativos.

Distribuciones de severidad subexponenciales (S). Por lo general, las distribuciones de pérdida en riesgo operativo exhiben colas largas.

Algunas de estas distribuciones se muestran en el Cuadro 1 y pertenecen a la clase llamada distribuciones subexponenciales y se denota como Fε" S (véase el apéndice A3 de Embrechts et al., 1997, para más detalles). Otros ejemplos de estas distribuciones son Burr, Benktander tipo I y II y log-gamma. Estas distribuciones obtienen su nombre, debido a que sus colas decaen más lentamente que las de una exponencial. ξ es conocido como el parámetro de índice de valor extremo.

La propiedad de las distribuciones subexponenciales es que la cola de la suma de n variables aleatorias subexponenciales tiene el mismo orden de magnitud de la cola de la variable máxima entre ellas. Más formalmente:

Según esto, la suma de n severidades iid es probablemente más grande, debido a que uno de los términos de la suma es grande o, en otras palabras, en riesgo operativo, grandes pérdidas se deben principalmente a una gran pérdida individual, más que a la consecuencia de pérdidas independientes pequeñas acumuladas. Algunos autores denominan este hecho como el paradigma de que una gran pérdida causa la ruina: "One big loss causes the ruin paradigm".

Entre tanto, la distribución de la pérdida agregada está dada por:

la convolución de F. Para la mayoría de las distribuciones de severidades y frecuencia, Gt no puede ser calculada de manera analítica. Existen métodos de aproximación para solucionar este problema, como el algoritmo recursivo de Panjer, simulación Montecarlo y la transformada rápida de Fourier.

Una alternativa para estimar el OpVaR, que está dado por cuantiles altos de la distribución de pérdida agregada Gt, es concentrarse en la cola derecha de esta distribución en lugar de la distribución entera. Un resultado importante en actuaría es que para un modelo estándar LDA con severidades subexponenciales bajo condiciones débiles de regularidad y para un valor de t > 0 fijo (véase teorema 1.3.9 de Embrechts et al., 1997) se tiene que:

colas de las severidades y de la pérdida agregada respectivamente. El símbolo "~" significa que el cociente entre el lado derecho y el lado izquierdo de la ecuación (1) tiende a uno cuando x tiende a valores muy grandes.

Se ha mostrado que la relación en (1) se cumple cuando se usan modelos de Poisson-LDA y binomial-negativa-LDA (véanse ejemplos 1.3.10 y 1.3.11, de Embrechts et al., 1997). Estos resultados son importantes para la estimación del OpVaR, como se verá más adelante.

Ejemplo 2 (modelo compuesto Poissonsubexponencial [SCP]). Este es un modelo de pérdida agregada donde la distribución de la severidad es subexponencial y la distribución de las frecuencias sigue un proceso homogéneo de Poisson. Esto es:

• El proceso de severidad: las severidades (Xk)k∈N son variables aleatorias positivas (iid) con función de distribución subexponencial que describen la magnitud de cada evento de pérdida.

• El proceso de frecuencia: el número N(t) de eventos de pérdida en el intervalo de tiempo [0, t] para t ≥ 0 es aleatorio, donde (N(t))t ≥ 0 es un proceso homogéneo de Poisson con intensidad -- > 0:

• El proceso de severidad y el proceso de frecuencia se asumen independientes.

• El proceso de pérdida agregada: la pérdida agregada S(t) al tiempo t constituye un proceso:

3.1 Estimación del OpVaR: método de Böcker y Klüppelberg (BK)

Usando la definición del VaR como cuantil (véase Definición 2) y la relación en (1), Böcker y Klüppelberg (2005) obtuvieron una fórmula analítica para estimar el OpVaR en modelos LDA, que se muestra en el Teorema 1.

Definición 2 (VaR). Suponga que Gt es la distribución de pérdida agregada. Entonces el VaR al tiempo t con una confiabilidad α se define como el α-cuantil de la distribución de pérdida:

Usando (1) los autores obtuvieron una fórmula asintótica para OpVaR.

Teorema 1 (OpVaR analítico). Considere un modelo estándar LDA para un t > 0 fijo y una severidad subexponencial con función de distribución F. Asuma además que el estimado de cola en (1) se cumple. Entonces el VaRt (α) satisface la aproximación:

La demostración de este teorema se puede encontrar en Klüppelberg y Böcker (2005). Donde es la inversa generalizada de F, E(N(t)) es el valor esperado de la frecuencia de pérdidas y α es la probabilidad a la que se quiere calcular el VaR. El teorema tiene dos resultados importantes: primero, el OpVaR a niveles altos de confiabilidad sólo depende de la cola y no del cuerpo de la distribución de la pérdida de severidades. Segundo, la frecuencia entra en (2) a manera de valor esperado; en consecuencia, la sobredispersión modelada por la distribución binomial negativa no tiene efecto asintótico en el cálculo del OpVaR.

El resultado obtenido en (2) se da para una clase general de modelos LDA. A fin de obtener una aproximación de primer orden para el OpVaR, basta combinar (2) con la cola de la distribución subexponencial de la severidad F. El Cuadro 2 muestra aproximaciones de primer orden del VaRt(α) con algunas funciones subexponenciales de severidad.

Las siguientes definiciones se pueden encontrar en Embrechts et al. (1997) y son de importancia para enunciar el Teorema 2, más adelante.

Definición 3 (función de variación lenta). Una función positiva, Lebesgue-medible L en (0,∞) es de variación lenta en ∞ si:

Ejemplos de funciones de variación lenta son las constantes logarítmicas, potencias de logaritmos y funciones de logaritmos iterados.

Definición 4 (funciones de variación regular). Sea f una función positiva medible. Si para algún ρε R:

Entonces f se denomina de variación regular con índice ρ. No todas las funciones de variación regular son funciones subexponenciales, por ejemplo, la distribución de Weibull de cola larga y la distribución log-normal.

Teorema 2 (OpVaR analítico para el modelo SCP). Considere el modelo de pérdida agregada SCP:

Donde L es una función de variación lenta.

La demostración de este teorema se puede encontrar en Böcker y Klüppelberg (2006). El problema que surge al aplicar herramientas de la teoría del valor extremo es que en datos empíricos, por lo general, L no se conoce; pero si asumimos una función de distribución para modelar severidades, la función de variación lenta sí se conoce. El siguiente ejemplo es tomado de Böcker y Klüppelberg (2005).

Como resultado del Teorema 1:

En realidad, cualquier distribución de severidad que satisface se obtiene de la aproximación dada en (4).

A continuación se presenta otra metodología alterna para calcular el riesgo operativo basándose en herramientas de la teoría del valor extremo.

3.2 Estimación del OpVaR: método de máxima verosimilitud de Weissman

Otra alternativa es estimar cuantiles, en especial para riesgo operativo, mediante la teoría del valor extremo. Existen dos clases de modelos para tratar valores extremos: block maxima (máximos por bloque) y POT. Este último es la técnica más usada para analizar la cola de una función de distribución. Las dos técnicas se basan en modelos distribucionales obtenidos a partir de teorías asintóticas.

El problema con estos métodos es la estimación de los parámetros de las distribuciones límites, en particular el parámetro de forma (también llamado el índice de valor extremo [ξ]), el cual determina el comportamiento de los valores extremos. Determinar el umbral en el método POT conlleva un trade-off entre sesgo y varianza en la estimación de los parámetros de la función de distribución que se asume para ajustar los valores extremos.

El usar métodos basados en cuantiles (por ejemplo, el estimador de Hill) también depende de la elección apropiada de estadísticos ordenados superiores. Elegir el umbral óptimo (en el método POT) conlleva al mismo problema de elegir el numero óptimo k de estadísticos ordenados superiores (en el estimador de Hill). Si se utiliza el método block maxima, el sesgo se presenta con bloques muy pequeños y varianza en el caso contrario.

De esta manera, la estimación del índice de valor extremo se convierte en un problema importante para calcular de manera confiable cuantiles altos como una medida de riesgo, siguiendo la teoría del valor extremo; sin embargo, la selección de k (o del umbral) para estimar el índice de valor extremo no es una tarea fácil. En Mora (2009) se trata este problema y se presenta un análisis comparativo de algunos estimadores del índice del valor extremo. En esta sección se utiliza el método MLE para un modelo de regresión exponencial (ERM), y así obtener un estimado del índice de la distribución de pérdidas y el estimador de Weissman, a fin de calcular el cuantil alto como medida de OpVaR.

Beirlant, Dierckx, Goegebeur y Matthys (1999) introducen un modelo de regresión exponencial basándose en log-espaciados entre estadísticos ordenados consecutivos y extremos de una distribución tipo Pareto, a fin de reducir el sesgo que se presenta en la estimación del índice de valor extremo en el gráfico de Hill.

Definición 6 (distribuciones tipo Pareto). Una distribución tipo Pareto o de colas largas es una distribución F que satisface:

Donde L es una función de variación lenta para todo x > 0. Las distribuciones tipo Pareto también se denominan distribuciones con cola de Pareto. Ejemplos de estas son: gamma inversa, t de Student, log-gamma, F y Burr.

En cuanto a la selección de k, existen varios métodos adaptativos para escoger -véase, por ejemplo, la sección 4.7 de Beirlant et al. (2004) y las referencias allí contenidas-. Un método puede ser minimizar el error cuadrático medio asintótico (AMSE, por su sigla en inglés) del estimador de Hill, que está dado por:

Donde ξ es el índice de valor extremo (también conocido como el parámetro de forma), ρ es conocido en la teoría del valor extremo como el parámetro de segundo orden, k es el subíndice del estadístico de orden y b es una función tal que La idea es estimar el k óptimo mediante el estimador de Hill (véase, por ejemplo, la sección 4 de Beirlant et al., 1999), donde:

denotan los estimadores de máxima verosimilitud de ξ, b y ρ respectivamente, y son obtenidos mediante el método MLE para el metodo de regresión exponencial.

Sobre el estimador de Weissman, asuma que la linealidad en el gráfico de cuantiles de Pareto (véase sección 1.2.1 de Beirlant et al., 2004) persiste desde las k observaciones más grandes (hasta infinito), entonces podemos usar la línea con ecuación:

Donde p es un número muy pequeño entre 0 y 1. Para seleccionar el kóptimo se minimiza el AMSE con el método MLE para el método de regresión exponencial.

4. Simulación

Esta sección presenta simulaciones Montecarlo de pérdidas por riesgo operativo utilizando los dos métodos5 vistos para calcular OpVar (BK y MLE-W) para modelos Pareto-LDA (como en el Ejemplo 3), es decir, la severidad se distribuye según el método de Pareto con parametros ξ = 0,6, 1 y 1,7 y la frecuencia de los eventos de pérdida (en estas simulaciones) se distribuye según Poisson con un parámetro λ igual a 100.

4.1 Caso 1

Este caso es una simulación de 100.000 realizaciones de un modelo Pareto-Poisson LDA con λ = 100 para Poisson. Los parámetros de la distribución de Pareto son (1/1,7) (Gráfico 1 y Cuadro 3).

El valor de Xn – k,n usado es 669,3 dado que el kóptimo es 311 cuando se miniza el AMSE (0,06%) por el método de MLE para el método de regresión exponencial.

4.2 Caso 2

El Caso 2 es una simulación de 100.000 realizaciones de un modelo Pareto-Poisson LDA con λ = 100 para Poisson. Los parámetros de la distribución Pareto son (Gráfico 2 y Cuadro 4).

El valor de Xn - k,n usado es 24.541,6 dado que el kóptimo es 9.275 cuando se minimiza el AMSE (0,02%) por el método de MLE para el método de regresión exponencial.

4.3 Caso 3

Este caso contiene un modelo de media infinita para la severidad y es una simulación de 100.000 realizaciones de un modelo Pareto- Poisson LDA con λ = 100 para Poisson. Los parámetros de la distribución de Pareto son (Gráfico 3 y Cuadro 5).

El valor de Xn – k,n usado es 24.541,6 dado que el k óptimo es 9.275 cuando se minimiza el AMSE (0,02%) por el método de MLE para el método de regresión exponencial.

4.4 Comentarios

En los resultados de las simulaciones se observa que el OpVaR calculado mediante el método MLE-W se aproxima más a los cuantiles empíricos de las distribuciones de pérdida simuladas para los casos donde las severidades se distribuyen Pareto con parámetros ξ = 0,6 y 1; sin embargo, cuando la severidad se distribuye Pareto con parámetro ξ = 1,42, el método que da un mejor aproximado al cuantil empírico es BK. Este último caso, como ya se había mencionado, corresponde a los casos de "media infinita", donde las distribuciones de severidades exhiben colas extremadamente largas y el cálculo tradicional de VaR puede guiar a cargos de capital absurdamente altos en estos casos.

5. Caso colombiano

En este caso se utilizaron las pérdidas en miles de pesos por siniestros-riesgo operativo que reportaron las entidades financieras6 a la Superintendencia Financiera de Colombia en el 2008 (véase http://www.superfinanciera.gov.co). El análisis previo de los datos se resume en el Cuadro 6.

Como se puede observar en el Cuadro 6, los datos exhiben alta curtosis y asimetría positiva, es decir, una distribución de los datos con cola que tiende a ser larga a la derecha, datos típicos que se analizan bajo la teoría del valor extremo. Con estos datos de pérdida se construye una distribución empírica de pérdidas del sector financiero y por medio de una prueba de bondad de ajuste7 se estima la función paramétrica que mejor se ajusta a los datos reales. En el Cuadro 7 se muestra el valor del estadístico bajo la prueba Kolomogorov-Smirnov (K-S).

Para 32 datos con una significancia del 5%, el valor crítico de la prueba K-S es de 0,211. En paréntesis se encuentra el valor de p de la prueba; por lo tanto, no hay evidencia estadística para aceptar la distribución normal como un buen ajuste a los datos empíricos8. Si se utiliza el valor de p como método de posicionamiento, la función que mejor se ajusta para este caso es la distribución log-normal, mediante la prueba K-S.

Con esta función probabilística se genera una distribución de pérdidas mediante la simulación Montecarlo. Al simular 100.000 datos distribuidos log-normal con los parámetros obtenidos de la prueba de bondad de ajuste, se obtiene el Gráfico 4.

Cuando el gráfico de los excesos medios (mean excess plot) presenta una línea creciente se puede decir que son datos con distribución de colas largas; lo contrario sucedería para datos con distribución de colas cortas. La distribución log-normal es un caso típico de distribución con colas largas. Los cuantiles exponenciales se ilustran en el Gráfico 5.

La forma cóncava a partir de la línea recta en este tipo de gráfico muestra que los datos exhiben colas largas. La distribución log-normal es muy utilizada en el sector de seguros, para modelar grandes pérdidas por siniestros (véase, por ejemplo, Mikosch [2004], tabla 3.2.19), y es la que se usa para estimar el cuantil al 99,9% mediante el método MLE-W, por ser una distribución subexponencial, como ya se vio.

El valor en miles de pesos de Xn -k,n usado es 1.276.262.099, dado que el kóptimo es 262 cuando se minimiza el AMSE (0,34%) por el método de MLE para el método de regresión exponencial el valor del índice del valor extremo es 0,9473697. Con estos datos al 99,9% de confiabilidad la pérdida máxima por riesgo operativo para el sector financiero colombiano en el 2009, en miles es de pesos colombianos, es 3.189.988.440, calculado mediante el estimador de Weissman. Este nivel de capital se considera "razonable" en el sentido de Dutta y Perry (2006), es decir, si la razón de capital/total de activos está por debajo del 3%. Considerando las 32 entidades que reportaron pérdida por riesgo operativo, esta razón es del 1,7%.

Conclusiones

En este documento se probaron dos métodos para cuantificar riesgo operativo al 99,9% de confiabilidad en distribuciones de severidad de Pareto con diferentes valores de parámetro de forma. Como lo anotan en su artículo Neslehová et al. (2006), el VaR es asintóticamente superaditivo para distribuciones de pérdida con colas muy largas, esto es, sumar individualmente el VaR subestimaría el "verdadero" VaR para distribuciones de pérdida con índices de valor extremo mayores que uno. Por tal razón se prueban los dos nuevos métodos que reducen este problema al cuantificar riesgo operativo.

Un método novedoso es el propuesto por Böcker y Klüppelberg, quienes obtienen una fórmula explícita para estimar el OpVaR cuando los datos de pérdida exhiben colas largas. De hecho, en la práctica las pérdidas por riesgo operativo exhiben colas largas, como se ve también en el caso colombiano. El otro método (MLE-W) está basado en la teoría del valor extremo y se empleó una de las técnicas para estimar el índice de valor extremo (que es uno de los problemas por resolver en la aplicación de la teoría; véase Embrechts, 2009), desarrollada por Beirlant y otros investigadores. Con este valor se usó el estimador de Weissman para calcular el cuantil al 99,9%, como estimado del OpVaR.

Los resultados de la simulación muestran que el método MLE-W funciona bastante bien para distribuciones de pérdida con colas no tan largas; mientras que la fórmula explícita de Böcker y Klüppelberg tiene una mejor aproximación cuando la cola de la distribución es extremadamente larga.

Si bien varios autores cuestionan el uso de metodologías AMA, por ser más costosas y complejas para su aplicación, a su vez son más sensibles al riesgo y permiten medir de manera más confiable el riesgo operativo. El método BK es muy fácil de implementar y sus resultados son bastante buenos, de acuerdo con las simulaciones en este documento y las también realizadas en su artículo del 2005. De esta manera, con este documento se pretende brindar herramientas útiles y confiables a las entidades financieras bajo el marco regulatorio colombiano y las características de una distribución de pérdidas por riesgo operativo encontradas en la práctica. Siempre y cuando se cumplan los requisitos mencionados en la sección 2, las entidades financieras colombianas estarán mejor preparadas para cumplir con sus requerimientos regulatorios y prevenir grandes pérdidas por riesgo operativo.

Un problema actual es la no disponibilidad de bases de datos de pérdidas por riesgo operativo para aplicar los métodos aquí descritos. Por tal razón, sólo se aplicó el método MLE-W para el caso colombiano y se espera que cuando se cuenten con dichas informaciones, el sector financiero pueda compartir estos datos con la academia, preocupación también compartida por importantes investigadores en el tema (Neslehová et al., 2006).

Como futura investigación se podría utilizar el refinamiento propuesto por Böcker y Sprittulla al OpVaR analítico presentado por Böcker y Klüppelberg para cuantificar el riesgo operativo, mediante el supuesto de que las distribuciones de severidad tienen media finita y que según los autores se reduce el error de aproximación al OpVaR.

Agradecimientos

El autor agradece las valiosas sugerencias y recomendaciones de los evaluadores anónimos, que ayudaron significativamente a mejorar la versión previa de este artículo.

Notas al pie de página

1. Una amplia descripción de la teoría del valor extremo se presenta en Embrechts, Klüppelberg y Mikosch (1997); McNeil, Frey y Embrechts (2005); Balkema y Embrechts (2007); Beirlant, Goegebeur, Segers y Teugels (2004); Reiss y Thomas (1997).

2. De Fontnouvelle et al. (2006) argumentan el uso de esta técnica basándose el teorema de Pickands-Balkema de Haan, según el cual la distribución de pérdidas que excede un umbral lo suficientemente alto converge a una distribución generalizada de Pareto (GPD). Las pérdidas que usan superan el millón de dólares.

3. De Fontnouvelle et al. (2004) sustentan el uso de esta técnica para reducir el sesgo que se presenta al estimar los parámetros de la distribución con la teoría del valor extremo cuando la muestra de datos es pequeña.

4. Conditional tail expectation (CTE) al 99,9% se calcula como CTE99,9% = E(L | L > VaR99,9%), donde E(.) es el valor esperado y L. representa las pérdidas.

5. Para el método BK se utiliza la fórmula (4) y para MLE-W se utilizan los scripts en S-PLUS, elaborados por Beirlant et al. (2004), y se pueden encontrar en http://ucs.kuleuven.be/Wiley/index.html (capítulo 4). Los archivos que se utilizaron fueron: Hill2oQV.SSC para estimar el índice de valor extremo, mediante el MLE para el modelo de regresión exponencial y Hillkopt.SSC para encontrar el valor de k óptimo, que minimiza el AMSE al estimular el índice mencionado.

6. De las 32 entidades financieras analizadas, 15 corresponden a bancos; una, a corporación financiera; nueve, a compañías de financiamiento comercial; una, a un organismo cooperativo de grado superior; dos, a bancos de segundo piso, y cuatro, a cooperativas financieras.

7. Varios textos explican las tres pruebas más comúnmente usadas. Véase, por ejemplo, Evans y Olson (2002) para una breve descripción de estas pruebas. El método K-S es mejor que chi-cuadrado (χ2) para tamaños pequeños de muestra como en este caso; sin embargo, la prueba A-D pondera las diferencias entre las distribuciones en sus colas en mayor medida que en sus rangos medios. La hipótesis nula de estas pruebas es que no hay diferencias significativas entre la distribución empírica y la teórica. En este artículo se usa el paquete Risk Simulator para realizar la prueba de bondad de ajuste.

8. Se dice que no hay evidencia estadística para aceptar la hipótesis nula si el valor de p es menor al nivel de significancia.

Referencias

1. Allen, L. and Bali T. G. (2004). Cyclicality in catastrophic and operational risk measurements. Unpublished paper. New York: City University of New York.         [ Links ]

2. Balkema, G. and Embrechts P. (2007). High risk scenarios and extremes: A geometric approach. s. l.: Zürich Lectures in Advanced Mathematics-European Mathematical Society.         [ Links ]

3. Beirlant, J.; Goegebeur, Y.; Segers, J. and Teugels, J. (2004). Statistics of extremes: theory and applications. New York: John Wiley & Sons.         [ Links ]

4. Beirlant, J.; Dierckx G.; Goegebeur, Y. and Matthys, G. (1999). Tail index estimation and an exponential regression model. Extremes, 2, 177-200.         [ Links ]

5. Böcker, K. and Klüppelberg, C. (2005). Operational VaR: a closed-form approximation. RISK Magazine, December, 90-93.         [ Links ]

6. Multivariate models for operational risk. (2006). Munich: Munich University of Technology.         [ Links ]

7. De Fontnouvelle, P.; DeJesus-Rueff, J. and Rosengren, E. (2006). Capital and risk: New evidence on implications of large operational losses. Journal of Money, Credit and Banking, 38, 1819-1846.         [ Links ]

8. De Fontonouvelle, P.; Rosengren, E. and Jordan, J. (2004). Implications of alternative operational risk modelling techniques. Unpublished paper. Boston: Federal Reserve Bank.         [ Links ]

9. Degen, M.; Embrechts, P. and Lambrigger, D. (2007). The quantitative modeling of operational risk: between g-and-h and EVT. ASTIN Bulletin, 37, 265-291.         [ Links ]

10. Dutta, K. and Perry, J. (2006). A tale of tails: An empirical analysis of loss distribution models for estimating operational risk capital. Working Paper No. 06-13. Boston: Federal Reserve Bank.         [ Links ]

11. Embrechts, P. (2009). Linear correlation and EVT: properties and caveats. Journal of Financial Econometrics, 7 (1), 30-39.         [ Links ]

12. Klüppelberg, C. and Mikosch, T. (1997). Modelling extremal events for insurance and finance. Berlin: Springer.         [ Links ]

13. Evans, J. R. and Olson, D. L. (2002). Introduction to Simulation and Risk Analysis (2nd ed.). New Jersey: Prentice Hall.         [ Links ]

14. Huisman, R.; Koedijk, K.; Kool, C. and Palm, F. (2001). Tail-index estimates in small samples. Journal of Business and Economic Statistics, 19, 208-216.         [ Links ]

15. Jobst, A. (2007). The treatment of operational risk under the New Basel framework: Critical issues. Journal of Banking Regulation, 8 (4), 316-352.         [ Links ]

16. Kraujalis, S.; Karpaviciene, E. and Aurelijus, C. (2006). The specifics of operational risk assessment methodology recommended by Basel II. Engineering Economics, 3 (48). Recuperado el 25 de noviembre de 2010, de http://www.ktu.lt/lt/mokslas/zurnalai/inzeko/48/1392-2758-2006-3-48-07.pdf.         [ Links ]

17. McNeil, A. J.; Frey, R. and Embrechts, P. (2005). Quantitative risk management: concepts, techniques and tools. Princeton: Princeton University Press.         [ Links ]

18. Mikosch, T. (2004). Non-life insurance mathematics: an introduction with stochastic processes. Berlin: Springer Verlag.         [ Links ]

19. Moosa, I. (2007). Operational risk: a survey. Financial Markets, Institutions & Instruments, 16 (4), 167-200.         [ Links ]

20. Mora, A. (2009). Un estudio comparativo de algunos estimadores del índice de valor extremo. Bogotá: Colegio de Estudios Superiores de Administración (CESA).         [ Links ]

21. Moscadelli, M. (2004). The modelling of operational risk: Experience with the analyisis of the data collected by the Basel Committee. Banca d'Italia, Temi di discussione del Servizio Studi, 517, July.         [ Links ]

22. Neslehová, J.; Chávez-Demoulin, V. and Embrechts, P. (2006). Infinite-mean models and the LDA for operational risk. Journal of Operational Risk, 1 (1), 3-25.         [ Links ]

23. Reiss, R.-D. and Thomas, M. (1997). Statistical analysis of extreme values. Basel: Brikhäuser.         [ Links ]

24. Wei, R. (2006). Quantification of operational losses using firm-specific information and external databases. Journal of Operational Risk, 1 (4), 3-34.         [ Links ]

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License