Mostrando entradas con la etiqueta ERM-Riesgo Financiero. Mostrar todas las entradas
Mostrando entradas con la etiqueta ERM-Riesgo Financiero. Mostrar todas las entradas

lunes, 9 de septiembre de 2019

EL ANÁLISIS DE RIESGO


En el contexto de la norma ISO 31000, el análisis de riesgo aparece como un componente del proceso “Valoración del riesgo”. “Su propósito es comprender la naturaleza del riesgo y sus características, incluyendo cuando sea apropiado, el nivel de riesgo” (UNE-NORMALIZACIÓN ESPAÑOLA, 2018)

En términos prácticos consiste en definir los términos para que de manera cuantitativa y/o cualitativa podamos dimensionar el riesgo, estableciendo su probabilidad de ocurrencia  y el impacto de sus consecuencias, con ello se determina la  situación actual de exposición al riesgo y la capacidad de la organización para tomar las decisiones sobre su tratamiento.

Para este análisis se debe establecer los criterios para  calificar la magnitud del impacto y asignar probabilidades a cada evento y que deben ser previamente definidos por la dirección o unidad de análisis, en la etapa de alcance, contexto y criterios establecidos en la Norma ISO 31.000. Generalmente para el impacto se utilizan criterios cualitativos de valoración por ejemplo como:

·         Leve: Consecuencias menores al producirse el evento
·         Moderado: consecuencias significativas al producirse el evento
·         Grave: Consecuencias mayores al producirse el evento

Estos criterios se les puede asignar un valor numérico,  para transformarlo de cualitativo a cuantitativo.

Para dimensionar la posibilidad de que un suceso ocurra, se pueden utilizar diversos criterios, cualitativos o cuantitativos (siempre que exista data y sea estadísticamente significativa). Por ejemplo, como en el cuadro que se describe a continuación:


Valor
Probabilidad
Criterio
1
Baja
Ocurre algunas veces o excepcionalmente
2
Media
Puede ocurrir
3
Alta
Puede ocurrir frecuentemente

Seguidamente asignada un nivel de impacto y probabilidad a cada riesgo identificado, se procede a su valoración,  lo que definirá el nivel de exposición al riesgo de la organización a cada evento. El mismo solo será el resultado del producto:

EVALUACIÓN = Impacto x Probabilidad

Con esta evaluación se podrá realizar la priorización de los riesgos, lo que constituye la fuente para la construcción de la matriz de riesgo base (portafolio de riesgos). En este análisis preliminar se obtiene información sobre los riesgos puros o intrínsecos al que se esta expuesto. La evaluación de cada riesgo se abordará en la fase de evaluación del riesgo, que analizará según el nivel de control o no que exista, cambiar la priorización y toma de decisiones sobre el tratamiento del riesgo.

miércoles, 5 de septiembre de 2018

LA IMPORTANCIA DE LAS COLAS


Si alguna conclusión podemos extraer, de los cambios más profundos que en los últimos 20 años introduce Basilea en cuanto a materia de riesgo de mercado, es como las crisis financieras sucedidas, verifican la presencia de eventos extremos, cuya probabilidad de ocurrir son relativamente bajos, pero de muy alto impacto. De allí que las revisiones emitidas por la institución, en especial para los modelos internos, hayan hecho énfasis en analizar los valores extremos de las distribuciones de las series de precios o rendimientos de los activos financieros (transición de VaR al Expected Shortfall, el VaR estresado, escenarios de stress etc.) de manera que toman un importante papel para su análisis.

En el área de riesgo, el análisis de los eventos extremos se describe a través de la Teoría de Valores Extremos (EVT en sus siglas en inglés) cuyo enfoque se centra en el estudio de las colas de la distribución (valores más altos o bajos de la distribución de los valores de la variable en estudio).

En riesgo financiero es poco común encontrar un factor de riesgo cuya distribución de pérdidas se describa como una normal; por lo general, en riesgo de mercado, las distribuciones de pérdidas tienen alta curtosis, lo que indica que hay más probabilidad en las colas de estas distribuciones que en una normal.

Distribución de las colas pesadas

Distribuciones con altas curtosis se denominan distribución de colas pesadas. El capital de una entidad financiera puede verse significativamente afectado si no se caracteriza bien la distribución de estas colas pesadas.

Una distribución de cola pesada se distingue de la cola de una normal, en que en la primera decae mucho más lentamente, lo que significa que las probabilidades de encontrar valores extremos más grandes que en la normal son mucho mayores.


Fuente: Artículo: Estimadores del índice de cola y valor en riesgo(2010)

Métodos para el estudio de las colas
Mediante la teoría de valores extremos se hace el estudio de las colas.

Existen dos aproximaciones en esta teoría, el método de Máximo por Bloques, que considera el máximo valor que toma una variable aleatoria en periodos sucesivos de tiempo. Dichas observaciones son consideradas como valores extremos de la serie para cada uno de los periodos seleccionados.

El segundo tipo de metodología es conocido como Picos Sobre el Umbral (POT por sus siglas en inglés- Peaks Over Thresholds), los cuales se basan en las observaciones de una muestra que exceden un límite o umbral previamente definido. A diferencia de la aproximación anterior, la serie original no es dividida en bloques, sino que se define un umbral a lo largo de su historia, y aquellas observaciones que lo exceden se consideran valores extremos. El modelo POT tiene como ventaja que, gracias al uso más eficiente de la información, tiene mayor aplicación práctica.

En próximo post, revisaremos esta última metodología para su aplicación en modelos internos de riesgo de mercado.

Referencias

Mora Valencia, Andrés. Estimadores del índice de cola y el valor en riesgo.Colegio de Estudios Superiores de Administración - CESA, Bogotá - Colombia.2010




lunes, 23 de julio de 2018

Modelos de Backtesting para Expected Shortfall(ES)


A continuación, un resumen obtenido de dos trabajos relacionados con el tema y cuyos autores y títulos de trabajo se detallan abajo en las referencias.

Basilea propuso una transición desde el VaR con un nivel de significancia del 1% hacia el ES con un nivel de significancia del 2.5% como medida para la cuantificación del riesgo de mercado, sin embargo, no se planteó una definición formal de su backtesting (1).

Los modelos de backtesting para Expected Shortfall guardan diferencias con relación a las utilizadas para el Valor en Riesgo (VaR). En el post anterior se señaló que una de las principales diferencias es que el ES carecía de una propiedad matemática llamada elicatibilidad el cual el VaR sí lo cumplía, sin embargo, se pueden realizar las pruebas de backtesting del ES sin considerar esta propiedad.

Desde que Basilea ha anuciado la transición del VaR al ES,  en el aspecto del bactesting se han divulgado varios trabajos que abordan este tema recomendando diversas metodologías. Algunas de las metodologías hacen el uso tanto de modelos Garch como de Simulación de Montecarlo o ambos.

Aquí se muestran 3 metodologías que describen como se pueden aplicar:

1.      Aproximación de cuantiles de Emmer, Kratz y Tasche

El método de Emmer (2013) es una manera sencilla de hacer el backtest del Expected Shorfall basándose en la aproximación de backtesing a varios niveles de VaR. Aunque la aproximación que se consigue con este método no sea tan exacta como la obtenida con los otros dos métodos es el menos complejo y probablemente el que más se utilice en la práctica debido a su simplicidad (2)

La aproximación consiste en realizar pruebas de backtesting del VaR en un número seleccionado de cuantiles a un nivel de significancia, por ejemplo:

Si se supone que 𝛼 = 0.05 si se toman 4 puntos de cuantiles, se tiene que:

𝐸𝑆5%(𝑥) =≈ 1/4[𝑞1.25%(𝑋) + 𝑞2.5%(𝑋) + 𝑞3.75%(𝑋) + 𝑞5%(𝑋)]

Se puede asumir que se utiliza el mismo backtest para cada nivel de VaR, con un 95% de confianza al rechazar el modelo. Se aproxima el ES5% como la suma de 4 niveles distintos de VaR: 1,25%, 2.5%, 3.75% y 5%, asegurando que todos superan el backtesting del VaR.

2.      Modelo no paramétrico de Acerbi y Szekely

Acerbi y Szekely (2014) propusieron tres métodos distintos de backtesting para el Expected Shortfall. Los tres métodos son no-paramétricos, pero definen un test estadístico y utilizan simulaciones para encontrar la significación. La ventaja de estos métodos es que no se necesita hacer ningún supuesto paramétrico. (2)

Esta metodología necesita un mayor almacenamiento de información que el backtesting del VaR, pero resultan ser más potentes en cuanto a identificación estadística en momentos de alta volatilidad. Para las fronteras de significancia e identificación de potencia de los tests, Acerbi y Székely (2014) prueban las distribuciones Normal y t-Student (1)

Las simulaciones de Montecarlo se realizan dentro de una de las tres pruebas para encontrar los valores críticos con un nivel de significancia escogido.

3.      La distribución truncada de Rigui y Ceretta
Rigui y Ceretta propusieron una nueva forma de hacer el backtesting con el fin de mejorar los métodos ya existentes mencionados al principio. Las tres mejoras que propusieron son (1):

·         Utilizar la dispersión de la distribución truncada tomando como límite superior el VaR estimado, en vez de toda la función de probabilidad.

·         Permiten distribuciones de probabilidad distintas, hasta la distribución empírica, no se limitan a la Gaussiana. 

·         Permite verificar si cada violación individual del VaR es significativamente distinta del ES permitiendo verificar el error más rápidamente. 


¿Cuál método escoger?

Dependerá del método escogido para el cálculo del VaR y el ES. Si se utiliza el método de simulación de Montecarlo, el backtesting más adecuado es el método de Emmer, Kratz y Tasche o los métodos de Acerbi y Szekely.

Si se realizan métodos paramétricos para el cálculo del VaR y ES el método de Acerbi y Szekely será el más adecuado.

Si se utiliza simulación histórica para el cálculo del ES se recomienda la prueba de backtesting de Emmer, Kratz y Tasche.


REFERENCIAS

(1)    Sesma, Ana Maite. Expected Shortfall: Modelo de investigación de aplicación práctica y metodologías de Backtesting bajo FRTB. Trabajo de investigación, Universidad Complutense de Madrid. 06-2016
(2)    Backtesting Expected Shortfall: Una aplicación en acciones de energía tradicional y renovable. Daniel Velásquez, Andrés Mora-Valencia. Universidad EAFIT y Universidad de los Andes.