Introducción
En la Unión Europea, la normativa para el cálculo del capital de solvencia de las entidades aseguradoras ha sido determinista e independiente de las características propias de estas entidades, hasta la aparición de Solvencia II. Esta nueva normativa tiene en cuenta el posicionamiento de la empresa aseguradora en su mercado y la forma con la que se gestiona según los riesgos asumidos. De esta forma, el capital que se le requiere para su solvencia es el resultado de su posicionamiento frente a todos los riesgos a los que se encuentra expuesta. Como resultado, en el marco de Solvencia II las entidades aseguradoras deben realizar su gestión diaria de forma que en todo momento dispongan de un capital disponible (recursos) suficiente para asumir el riesgo inherente (pérdida inesperada) en la compañía (Lozano, 2005).
Dicho capital disponible (fondo propio o diferencia entre activo y pasivo exigible) debe reflejar un valor coherente con el mercado (Alonso, 2007) (y no un valor contable), porque en caso de que la entidad aseguradora tenga que ‘deshacerse' de alguna parte de su activo o pasivo para hacer frente a una pérdida inesperada, el valor al que se va a transferir el activo/pasivo será acorde al valor coherente con el mercado (Art. 75 SII) (International Accounting Standards Board -IASB-, 2005). Por tanto, el capital ‘real' que dispondría para hacer frente a un determinado riesgo será precisamente aquel que en cada momento se establezca en el mercado.
Una vez conocido dicho capital disponible es cuando se deben cuantificar los riesgos de la entidad con la finalidad de saber si están respaldados por fondos propios suficientes como para hacer frente a pérdidas ‘inesperadas', y a ello ayudan los modelos internos (Liebwein 2006) de evaluación del riesgo.
Como medida estandarizada de riesgo, la Directiva Solvencia II apunta al VaR (Hernández y Martínez, 2012; Cuoco y Liu, 2006), por lo que dicha pérdida ‘inesperada', a efectos prácticos, supone aplicar un percentil alejado de la pérdida esperada (percentil 50) calibrado, mediante dicho VaR. En el caso de las entidades aseguradoras, dicha calibración tiene que corresponder con un percentil 99,5% para un ejercicio económico de un año, acorde a la Directiva de Solvencia II (Art. 101 SII).
Esta directiva ofrece la posibilidad de que las entidades aseguradoras bien sigan una fórmula estándar (común para todas las entidades de los distintos países de la UE) o bien realicen un modelo interno (parcial o completo) (Art. 100 SII). Estos modelos mejorarán la consistencia y trasparencia, y hacen que el capital de mercado sea más eficiente (Kaliva, Koskinen y Ronkainen, 2007), al estar dirigidos a establecer una valoración del riesgo acorde al perfil de cada entidad (European Comission, 2003; Rokainen, Koskinen y Berglund, 2007).
En el epígrafe segundo, se realiza una revisión de la literatura que da lugar tanto a los modelos de gestión del riesgo en empresas aseguradoras propuestos para Solvencia II, como a los modelos internos de gestión del riesgo permitido en la mencionada normativa, siempre que sean validados por el supervisor (administración). El epígrafe tercero se centra en el riesgo de suscripción y, para una cartera de seguros multirriesgos (no vida), plantea la metodología para determinar la distribución a emplear para calcular la pérdida inesperada a través de una simulación estocástica, y con ello calibrar el riesgo de suscripción que permita una adecuada dotación de capital. Esto es, la base estadística del procedimiento para dotar de un modelo interno que valore el riesgo de suscripción y que pueda determinar el capital que lo garantice.
Esta metodología se ilustra con una serie temporal de una cartera de seguros de siniestros y se procede al ajuste y evaluación del modelo. En el apartado siguiente se incluye la metodología para el cálculo de la pérdida inesperada, principal diferencia incorporada en Solvencia II para evitar el enfoque determinista de ratios de la anterior normativa. Así, se incorpora al VaR paramétrico el Método de Montecarlo, que además permite mostrar no solo los resultados de una gestión de riesgos (el capital que garantiza el riesgo), sino también la probabilidad de que se dé el riesgo. Finalmente, se presentan los resultados obtenidos, así como las conclusiones más relevantes. En los anexos, se incluye información del procedimiento llevado a cabo para determinar las funciones que se ajustan a la muestra, la propia muestra y la bondad de los ajustes, así como la forma de cálculo del capital requerido en la anterior normativa Solvencia I.
Modelos de gestión
Una de las características más relevantes del mercado de los seguros es la importancia que tiene la solvencia de las empresas que actúan en él, entendida esta como un proceso por el que una entidad aseguradora no solo es capaz de dar respuesta a factores de riesgo actuales, sino también a los que puedan devenir -solvencia dinámica (Campagne, 1961)- de circunstancias tanto internas como externas (Willemse y Wolthuis, 2006). Aunque la antigua normativa Solvencia I considera el riesgo como igual para todas las empresas, independientemente de las características cualitativas de su negocio (Garayeta, Iturricastillo y De La Peña, 2012), la nueva legislación -Solvencia II-, intenta compensar las ineficiencias de Solvencia I (Butt, 2007) y que venían arrastradas por las prácticas regulatorias de los países de la Unión Europea.
Ya en 1948, Campagne, van der Loo e Yntema describen un método para calcular el margen de solvencia, basándose en un porcentaje a aplicar de las provisiones técnicas -solvencia estática-. El capital así determinado no es muy sensible al riesgo (Karp, 2007) y por lo tanto a dos compañías con estructuras diferentes (y con diferente exposición al riesgo) se les exigía el mismo nivel de capital. Por ello, es muy relevante determinar los riesgos en los que incurre una empresa aseguradora, así como el capital que los debe respaldar, de acuerdo a las características propias de cada empresa. Es aquí donde se desarrollan los modelos internos de valoración de los riesgos propios de cada compañía.
En la Directiva Solvencia II se posibilita cuantificar el capital inherente al riesgo, bien con la fórmula estándar, bien mediante un modelo interno (Art. 100 SII). Existen estudios (Devineu, 2009; Pfeifer y Strassburger, 2008) que establecen que la fórmula general del capital de solvencia requerido (SCR, por sus siglas en inglés) no siempre cumple las hipótesis exigidas y que la fórmula estándar, basada en asimetría y correlación, quizás no sea suficiente para los objetivos que persigue Solvencia II. Igualmente, la propia empresa puede desarrollar su modelo interno de forma completa (si se refieren a todos los riesgos) o parcial (cuando solo se refieren a algún riesgo) (Art. 112 SII), si bien conllevan procedimientos costosos y complejos (Eling, Schmeiser y Schmit, 2007).
Solvencia II intenta potenciar que las empresas desarrollen sus propios modelos internos (Rokainen et al., 2007), debido a que un modelo estándar rara vez se ajusta a las características específicas de la empresa y pocas veces refleja de forma adecuada la situación que tiene actualmente la empresa.
Estos modelos internos de gestión del riesgo no son una invención de los últimos años. Algunos expertos (Holzheu, 2000; Helfestein, Scotti y Brahin, 2004; Liebwein, 2006) indican que son la continuación de los profit testing usados desde 1980, al existir una clara necesidad de trasparencia, de convergencia en la supervisión hacia los modelos de solvencia y la contabilidad; además, son coherentes con la idea de que no existe un único modelo común para todas las compañías aseguradoras y que cuantifique la gestión del riesgo (Kaliva et al., 2007).
La finalidad de estos modelos internos es, además de ayudar a determinar el SCR (capital requerido para Solvencia), ser usados para determinar ciertos parámetros del modelo general, y se deben integrar en el proceso de gestión del riesgo de la compañía. Su aplicación debe hacerse a través de un acercamiento metodológico consistente, además del visto bueno de los supervisores, tanto al inicio como durante el proceso (CEIOPS, 2005).
Los modelos internos se orientan, por tanto, a la cuantificación del riesgo en cuanto al importe de capital que se requiere (Berglun, 2006), a su gestión y a dar mayores beneficios a los accionistas (Liebwein, 2006). Además, no hay necesidad de aplicarlo para toda la empresa, sino que se puede aplicar a ciertos sectores o a la valoración de determinados riesgos. En todo caso, el modelo interno requiere una amplia justificación (SII).
Para el desarrollo del modelo interno es conveniente seguir alguna de las siguientes opciones (Cuadro 1).
La información generada debe incluirse en su ejercicio correspondiente, de otro modo causaría errores muy notables que podrían afectar a la continuidad de la empresa (Chantfield, 2001). Por ello, los parámetros estimados en los modelos internos se deben adecuar al periodo en el que está inmersa la aseguradora, aunque se debe tener en cuenta que un modelo ajustado a los valores presentes no garantiza un pronóstico adecuado de capital requerido que haga frente a los riesgos (Berglund, 2006).
La directiva afirma que los requisitos de capital deben ser cubiertos por los fondos propios (Cap. 47 SII) y aquellos activos que se permitan a las aseguradoras como garantía frente a las obligaciones contraídas. Por ello, se debe cuantificar tanto la pérdida esperada o provisiones técnicas, como la pérdida no esperada, a través de métodos estadísticos y actuariales (Cap. 53-56 SII) y con hipótesis realistas, siendo estos siempre coherentes con el mercado y cumpliendo de forma fiable las normas de diversificación de los riesgos.
Modelización del riesgo de suscripción
La pérdida esperada
El riesgo de suscripción representa el riesgo de pérdida o de modificación adversa del valor de los compromisos contraídos en virtud de los seguros contratados, inadecuación de hipótesis y constitución de provisiones. También se le conoce como riesgo de prima y se refiere a indemnizaciones futuras que se originan durante o después del ejercicio económico y hasta el horizonte de tiempo previsto para la valoración de la solvencia. Este riesgo estará compuesto por el capital económico necesario para hacer frente a la pérdida esperada y el capital económico necesario para hacer frente a la pérdida no esperada.
Con el fin de cuantificar la pérdida esperada, se toman como referencia los datos históricos; entonces, basándose en la simulación de la siniestralidad que constituye el factor principal de dicho riesgo, se proyecta el comportamiento de su frecuencia y de coste medio, con ello se busca aquella función de distribución que mejor replica dichos datos históricos. Dicho proceso se indica en el Anexo I.
En este sentido hay investigaciones que directamente aplican una distribución dada para realizar estimaciones futuras. A modo de ejemplo, Kaufmann, Gadmer y Klett (2001) emplean una distribución binomial negativa para la frecuencia de siniestros y una distribución gamma para la intensidad de estos, para ser aplicado en el sector asegurador (no vida). Para una cartera de automóviles, Otero y Durán (2008) emplean una distribución normal, tanto para la frecuencia como para su intensidad, dentro del modelo integral de análisis financiero dinámico DynaMo 3. Estos autores aplican dichas distribuciones con los estadísticos clásicos (media, desviación estándar, etc.) de datos históricos.
En este trabajo se plantea una metodología alternativa que se encuentra ligada al modelo propuesto en QIS4, y consiste en proyectar directamente la ratio de siniestralidad (loss ratio) tras haber sido ajustada a una distribución histórica. De esta forma, no se predetermina la función de distribución de los datos de la compañía, como hacen otros autores, sino que según los datos se busca aquella función de distribución que mejor represente las frecuencias del número de siniestros y de su severidad.
Serie temporal empleada
El mercado español de seguros multirriesgo del hogar se encuentra atomizado en un gran número de compañías con cuotas de mercado, en su mayoría realmente bajas. En 2013 operan 75 compañías donde las 7 primeras controlan más del 50% del mercado y, a partir de la número 20, el índice de penetración del mercado es cercano al 1%, siendo su campo de actuación, en la mayoría de los casos, local, provincial o autonómico. Si bien el número de primas en los años referenciados tiene una tendencia ligeramente bajista, la totalidad del sector muestra una evolución creciente en cuanto a la recaudación de primas hasta 2013 (último año con datos oficiales), como se muestra en el Cuadro 2.
CUADRO 2 Evolución de Primas y Siniestralidad (miles de €uros)
![](/img/revistas/inno/v26n62//0121-5051-inno-26-62-00113-gt2.png)
Fuente: Dirección General de Seguros y Fondos de Pensiones.
Para determinar el capital de solvencia debido al riesgo de suscripción en el ramo multirriesgo del hogar, se dispone de las características básicas de cartera (Anexo II) de una empresa que representa al modelo-tipo de empresa del sector multirriesgo del hogar, esto es, empresa aseguradora pequeña, local, con una cuota de mercado cercana al 1% (una media de 1.306 pólizas en todo el periodo, alcanzando a cierre de 2013 un total de 1.053 pólizas). La base de datos históricos de 9 ejercicios económicos anuales por trimestres alcanza 41.892 asegurados, totalizando 13.830 siniestros, y representando un coste total de 25.233.813,42 €, si bien la prima recaudada asciende a 2.608.444,23 euros.
A partir de sus datos históricos, se obtienen los estadísticos clásicos (media, varianza, etc.) de las variables incluidas en el cálculo de la prima, así como las frecuencias del número de siniestros. Concretamente, el número medio de siniestros por trimestre asciende a 432,19, con una desviación típica de 107,39.
En el trimestre que menos ocurren hay 176 siniestros, y en el que más, 620 (Gráfico 1). En cuanto a la severidad, el coste medio del siniestro ascendió en esos nueve años a 1.803,85 €, con una desviación típica de 262,52 €, siendo 1.352,41 € el menor valor y 2.436,90 € el máximo coste del siniestro (Gráfico 2).
Modelización estadística
Los datos históricos son la fuente de la frecuencia observada (Gráficos 3 y 4) y se contrasta con las frecuencias individuales teóricas de diversas funciones, con el fin de observar qué función refleja más fielmente la realidad.
En lo que respecta al número de siniestros, los gráficos 5 y 6 muestran qué funciones se aproximan más a las frecuencias observadas. Destacan la distribución normal y la gamma.
![](/img/revistas/inno/v26n62//0121-5051-inno-26-62-00113-gf6.png)
Fuente: elaboración propia.
GRÁFICO 6 Frecuencias acumuladas teóricas y prácticas (número de siniestros)
En cuanto a la severidad o intensidad del siniestro, los gráficos 7 y 8 indican qué funciones se aproximan más a las frecuencias observadas. Destacan la distribución normal, la log-normal y la gamma.
![](/img/revistas/inno/v26n62//0121-5051-inno-26-62-00113-gf8.png)
Fuente: elaboración propia
GRÁFICO 8 Frecuencias acumuladas teóricas y prácticas (cuantía de siniestros
Tras la realización del test de la bondad de ajuste de distribución, tanto para el número de siniestros como para el coste de siniestros (test de Kolmogorov-Smirnoff, Chi Cuadrado y Anderson-Darling, cuyos valores se encuentran reflejados en el Anexo II -Cuadros 10 a 15-), se encuentra que la función que mejor replica la frecuencia del número de siniestros en este caso es la Normal. En cuanto a la severidad, corresponde igualmente a dicha función Normal.
Metodología para la determinación de la pérdida no esperada: Capital en riesgo a través del Método de Montecarlo
Margen de Solvencia Obligatorio en Solvencia I
Una vez localizadas las funciones que mejor se adecúan a la distribución de número de siniestros y su severidad, se procede a la determinación del margen de solvencia. Para el Ramo de no vida, el Margen de Solvencia Obligatorio (MSO) según la normativa solvencia I (SINV, 2002) se calcula teniendo en cuenta la recaudación anual de primas y la siniestralidad acaecida en los últimos 3 años. El procedimiento concreto se encuentra incluido en la normativa SINV (2002) y lo más relevante de su cálculo se resume en el Anexo III con base en Garayeta et al. (2012).
Para la muestra contemplada, se supone que los riesgos los soporta íntegramente la aseguradora, con lo cual los 2.608.444,23 euros de prima se contemplan al 18%, resultando un margen de solvencia de 469.519,96 €. Este capital es independiente de la gestión de riesgo que se realice en la compañía e, incluso, como se ha comentado, dos compañías que realicen una gestión diferenciada llegarían a tener el mismo margen de solvencia, siempre que su recaudación por primas fuese la misma.
El valor del capital en riesgo en Solvencia II
Del mismo modo que la directiva Solvencia II impulsa que las empresas construyan sus propios modelos internos, también apunta al valor en riesgo -VaR-, como medida estandarizada de riesgo. Las características, así como las ventajas y desventajas del VaR, han sido ampliamente discutidas en la literatura (Artzner, Delbaen, Eber y Heath, 1999), midiendo la cantidad que en un horizonte y en un intervalo de confianza dado no excederá en sus pérdidas (Jorion, 2001; Trainar, 2006). En su formulación más sencilla (Sharpe, 1995), dada una cartera C en un tiempo T y una probabilidad p, se estima un nivel de pérdidas L*, en el cual las pérdidas han de ser menores o iguales.
El VaR representa un cuantil condicionado por la distribución de pérdidas. De esta forma, sean: l 1, l 2,...,l n las variables idénticamente distribuidas que definen las pérdidas.
Representa la distribución de acumulación condicionada a que la información del conjunto Ω t-1 se conoce en t -1. Todas las pérdidas t-ésimas siguen el siguiente proceso estocástico:
siendo,
donde
y z t es la distribución condicionada de la función G (Z)
En este caso, el VaR para una probabilidad dada de α ∈ (-0,1), denotado por VaR(α), se define como el α cuantil (percentil) de la distribución de probabilidad de pérdidas:
Este cuantil puede estimarse mediante diferentes formas:
obteniendo la función de distribución de las pérdidas del periodo (F(L)), y
obteniendo la función de distribución de las volatilidades G (Z).
La pérdida ‘inesperada', a efectos prácticos, supone aplicar el percentil ya mencionado con anterioridad. Ese es un método muy utilizado en el mercado alemán (Altuntas, Berry-Stölzle y Hoyt, 2010).
Aunque el concepto del VaR es muy simple, su cálculo no lo es tanto. Las metodologías inicialmente desarrolladas para calcular el VaR de una cartera (Abad, Benito y López, 2014) son:
i) Métodos paramétricos. Buscan ajustar las curvas de probabilidad a los datos y, a través de la inferencia, obtener el VaR de una curva determinada. El primer modelo puede decirse que es Riskmetrics (Morgan, 1996), el cual se basaba en la hipótesis de la distribución normal y que las variables eran independientes e idénticamente distribuidos (iid).
ii) Métodos no paramétricos. Buscan medir el riesgo de una cartera sin realizar hipótesis de cómo es la distribución de pérdidas. Se basan en los datos históricos entendidos, como que el futuro más cercano debe ser similar al pasado reciente y, por lo tanto, los datos pasados pueden emplearse para predecir las pérdidas en un futuro cercano. Se han implementado modelos que estiman la función de densidad a partir de las simulaciones históricas (Barone-Adesi, Giannopoulos y Vosper, 1999; Engle y Manganelli, 2004).
iii) Métodos semiparamétricos. Los más significativos enfoques se centran en: volatilidad histórica; simulación histórica filtrada; autorregresiones por cuantiles -CaViaR-, teoría de los valores extremos y simulación de Montecarlo. De entre ellos, este último representa tal vez uno de los más empleados en el sector asegurador.
Existen estudios que comparan las bonanzas del empleo de series históricas, VaR paramétrico y VaR determinado con simulación de Montecarlo (Lechner y Ovaert, 2010; Deepak y Ramanathan, 2009; Jorion, 2001; Pritsker, 1997; Stambaugh, 1996). Por lo general, estos estudios concluyen que no hay un método mejor que otro. Los métodos paramétricos son simples de implementar y muy útiles cuando la frecuencia de los datos sigue una distribución normal; no obstante, resultan poco apropiados con otras funciones. El empleo de Montecarlo tiene la gran ventaja de incrementar el número de observaciones, aunque necesita un fuerte recurso informático. El empleo directo de los datos históricos es muy exacto de cara a medidas pasadas, pero suele ser pobre respecto a las estimaciones futuras. No cabe duda de que cada método tiene sus debilidades y fortalezas (Stambaugh,1996), con lo cual deben contemplarse como medidas complementarias al facilitar mayor grado de información según la circunstancia.
VaR paramétrico
También es conocido como VaR calculado a través del método de varianzas-covarianzas y delta-normal. Para su determinación se asume que el VaR es proporcional a la desviación estándar del rendimiento de la cartera y se asume una distribución normal para los datos. Como la cartera es una suma lineal de los datos y estos se distribuyen normalmente, la cartera resulta también normalmente distribuida.
Su expresión de cálculo result:
Donde σc es la desviación estándar de la cartera.
Esta expresión ha sido muy empleada para calcular los valores en riesgo de carteras de activos financieros (Lechner y Ovaert, 2010; Deepak y Ramanathan, 2009), donde los rendimientos de los títulos siguen la distribución normal, resultando inapropiados con otras distribuciones asimétricas.
Simulación de Montecarlo
La selección del método Montecarlo ante una aproximación analítica se realiza por dos razones (Van Bragt, Steehouwer y Waalwijk, 2010):
i) complejidad de las opciones incluidas y
ii) para la presentación de informes y análisis en materia de solvencia, obteniendo unas valoraciones más detalladas que si se emplean aproximaciones analíticas menos precisas.
El método de Montecarlo es una buena solución, no solo para resolver problemas de naturaleza estocástica, sino también determinista (Albarrán y Alonso, 2010).
Ya en 1981, Gandhi, Saunders y Sugars indicaban que los resultados de la cartera de una compañía pueden ser representados por una probabilidad de distribución y con ellas se podía establecer el método para identificar la probabilidad de ruina. Además, se estableció que los criterios de dominio estocástico (Stocastic Dominance) eran superiores y más eficientes. Así, los autores comprenden un mejor acercamiento bajo situaciones de riesgo y recomiendan para llevarlo a cabo usar la técnica Montecarlo.
Gschlößl y Czado (2007) usaron un Markov Chain Montecarlo para la determinación de los parámetros que relacionan el número de reclamaciones y el tamaño de dichas reclamaciones dentro de una empresa de no vida. Para ello, emplearon datos de empresas alemanas de coches, los cuales a su vez se basan en Gilks, Richardson y Spiegelhalte (1996). Este método también ha sido aplicado en la determinación de los parámetros de estructuras latentes (Dimakos y Frigessi-Di-Rattalma, 2002) o en la contrastación de nuevos paradigmas, como el liability-driven investing, a través de una análisis dinámico financiero (Van Brag y Kort, 2010); incluso, ha sido utilizado para la determinación de los parámetros en diferentes modelos de precios de mercado (Hardy, 2002), como pudieran ser los precios de las casas, así como los tipos de interés a emplear para la valoración de hipotecas inversas (Huang, Wang y Miao, 2011; Yang, 2011)
Es conocido a su vez que Solvencia II intenta impulsar un enterprise risk management -ERM-, existiendo estudios que consideran que dentro de esta gestión la utilización del método Montecarlo es ampliamente utilizada en la cuantificación de los riesgos, incluso compatibilizándola en algunos casos con los stress-test (Altuntas, Berry-Stölzle y Hoyt, 2011).
La incorporación de modelos internos en la propia gestión de la empresa aseguradora requiere la realización de simulaciones estocásticas de las distintas variables objeto de gestión. Mediante este método, se asignan distribuciones de frecuencias a las variables del modelo interno que tienen riesgo y, posteriormente, se generan números aleatorios acorde a esas distribuciones, "simulando" (miles de escenarios) el comportamiento que se considera que tendrán en el futuro. De esta manera, es posible darle más realismo al modelo interno obteniendo resultados más confiables a la hora de tomar una decisión.
La forma más sencilla de simulación de Montecarlo para estimar el VaR en el momento t-ésimo para un ejercicio económico a un nivel de significatividad del 99,5% consiste en realizar N simulaciones bajo una determinada distribución de la variable. En este caso, y con el fin de obtener más información sobre la probabilidad de ocurrencia de hechos que pongan en riesgo el valor esperado de la prima determinada, se procede a simular variaciones en la distribución de siniestros y su cuantía. Para ello, se recrean 10.000 simulaciones, teniendo en cuenta que tanto el número de siniestros como el coste de estos siguen una distribución normal, tal y como se ha demostrado con el test de bondad de ajuste en el epígrafe anterior. En concreto, para la frecuencia del número de siniestros se realizan simulaciones con base en la distribución normal, y el mismo proceso se realiza para el coste medio de los siniestros.
Resultados
Tras encontrar las funciones de distribución que mejor representan las frecuencias del número de siniestros y su severidad (normal, en este caso), se procede a calcular el capital requerido de solvencia en base al VaR paramétrico y el VaR con el método de Montecarlo.
En lo que respecta al VaR paramétrico, se obtiene un valor en riesgo (capital requerido de solvencia con un Intervalo de Confianza de 99,5% durante un ejercicio económico de 748.225,53 €). Este valor contrasta con los 469.519,96 euros de margen de solvencia obligatorio resultante bajo la normativa anterior de solvencia I, la cual, como ya se ha mencionado, es independiente de las características propias de la cartera de pólizas.
Realizando la simulación de Montecarlo de 10.000 escenarios, se obtiene que la pérdida esperada con un intervalo de confianza de 99,5% durante un ejercicio económico asciende a 3.608.529,85 €. Teniendo en cuenta que la prima devengada en el ejercicio por la entidad aseguradora asciende a 2.608.444,23 €, el valor en riesgo del Riesgo de Suscripción de dicha Prima sería 1.000.085,62 €, un valor superior al VaR paramétrico y que contempla un abanico de 10.000 escenarios posibles.
Discusión y conclusiones
No cabe duda de que Solvencia II va a suponer un cambio en la concepción y gestión del riesgo para las empresas aseguradoras. La valoración y gestión del riesgo dependerá de su propia situación y de cómo se encuentren posicionadas en el mercado. Ello va a provocar que a diferentes empresas aseguradoras les correspondan diferentes capitales de solvencia, pasando por tanto de un modelo determinista de Solvencia I a un modelo estándar en Solvencia II, y fomentando el desarrollo de modelos internos como el aquí desarrollado.
Este trabajo indica la metodología de un procedimiento propio que permita determinar la mejor función para los siniestros, tanto en frecuencia como en intensidad, para así calcular el capital de solvencia por riesgo de suscripción en una cartera multirriesgo del hogar. La cartera empleada contempla datos trimestrales donde, para determinar el capital requerido de solvencia, se ha empleado una simulación estocástica de Montecarlo.
Precisamente, las características de la frecuencia de siniestros de la cartera de pólizas y de su cuantía es la que en Solvencia II determina ese capital adicional por la pérdida no esperada y que depende de la política de suscripción de riesgos de la propia compañía: Solvencia II considera una cartera de más riesgos (en cuantía y frecuencia), por lo que el capital que debe estar dotado debe ser mayor (hasta más del doble en este caso), lo cual redunda en mayor seguridad de la compañía y en el propio fin para el que se crea Solvencia II: dotar de seguridad económica a los compromisos asumidos para con los asegurados.
La aplicación de la simulación estocástica llevada a cabo permite:
Determinar un procedimiento específico para dotar de un modelo interno que determine el capital requerido para solvencia en el caso del riesgo de suscripción, sin realizar una presuposición de una determinada función de distribución para los datos históricos.
Superar el hándicap que supone la normativa solvencia I, la cual calcula el capital de solvencia de forma determinista e igual para todas las empresas aseguradoras. El sistema propuesto informa la distribución de frecuencias e intensidades que mejor representa la realidad del negocio asegurador y, por tanto, calcula el capital de solvencia con la probabilidad derivada de ocurrencia del siniestro y su cuantía.
Las simulaciones estocásticas, dado que consisten en simular miles de escenarios posibles de siniestralidad, permiten estimar el importe total de siniestros de todos y cada uno de los escenarios posibles (de acuerdo a un intervalo de confianza determinado) y teniendo en cuenta que nos basamos en la experiencia histórica de los siniestros, además de cuantificar el importe de siniestros, calculamos la probabilidad de todos y cada uno de los escenarios que hemos proyectado.
Este procedimiento plantea la utilidad de gestión al permitir conocer la influencia que tiene una parte concreta de la cartera, por sus características especiales (sector industrial, servicios, localización geográfica, etc.). Con ello, se puede llegar a calcular la pérdida esperada de acuerdo a la simulación planteada para esa cartera y cuantificar la influencia que tiene sobre el capital económico final de la compañía. Esto es, valora el incremento de riesgo que supone la parte concreta de la cartera.
Igualmente, como herramienta para la gestión de la compañía, puede incorporar variación temporal en los parámetros, colas gruesas y escenarios extremos y, por ende, puede abarcar una amplia gama de riesgos.