lunes, 17 de septiembre de 2018

VaR Extremo- Picos sobre el umbral (POT)


Situación

La unidad de gestión de riesgos de una institución financiera analiza las premisas para el cálculo de un escenario de estrés, bajo la perspectiva que se presente una gran pérdida monetaria, digamos u. Se piensa que esta pérdida solo se experimenta en ocasiones muy raras; p.ej. una vez cada 5-10 años.

La preocupación del gerente de riesgos se asocia a cualquier ocasión cuando la variable aleatoria de pérdida L, exceda a u. Como resultado, el nuevo foco de atención está en modelar la distribución condicional de Y = L-u dado que la pérdida excede a u.

Basado en el post anterior de la “Importancia de las colas” se fundamenta un marco teórico para el análisis de las pérdidas extremas, la situación expuesta ilustra como utilizando la teoría de valores extremos, se puede resolver en la práctica este tipo de problemas. En este caso la aproximación a utilizar se asocia a la metodología de Peaks over Thereshold (POT) o Picos sobre el Umbral.

Bases para la aproximación de Picos sobre el Umbral (POT)
Para este enfoque es necesario conocer el siguiente resultado teórico (2):

Sean {X1, … , Xn} variables aleatorias i.i.d., sea u  el umbral fijado y  {Xi1, … , Xip} donde i1, … , ip {1,…,n} y son todos aquellos valores mayores que el umbral u.

La distribución de los excedentes yij = Xij – u , j {1,…,p} converge a la siguiente distribución, conocida como Distribución de Pareto Generalizada:

GPD(y;σ,ƹ)= 1- (1+ƹ(ƴ/σ))-1/ƹ
Donde:
σ= σ + ƹ(u-µ)> 0


El parámetro µ corresponde con la localización (como la media lo es en la distribución normal), el parámetro σ con la escala (como la desviación estándar lo es a una distribución normal) y ƹ con la forma o índice de cola (indica el tamaño de la cola de la distribución) y corresponde a la Distribución Generalizada de Valores Extremos que adquiere la muestra.

Cuando el índice de cola arroja un valor cero la distribución corresponde a una Gumbel, si es menor que cero a una distribución de Weibull y cuando es mayor a cero a una distribución de Frechet.


Escoger el umbral

Si aplicamos esta metodología para el cálculo de un VaR estresado o extremo, su valor dependerá del valor del umbral u. Una de las consideraciones claves a tomar en cuenta cuando seleccionamos el umbral es que debería ser lo suficientemente alto, para que la aproximación presentada en las expresiones arriba, sean razonablemente precisas. El resultado mejora a medida que crece u, sin embargo, lamentablemente puede crecer tanto que la estimación estadística se vuelve inútil. De manera que tan alto como sea el umbral, podemos tener resultados de baja significancia estadística, como si el umbral es bajo, el valor se deteriora en una distribución generalizada de Pareto.

Generalmente se ha utilizado el Valor en Riesgo como umbral, ya que identifica el límite del cuantil donde comienzan aquellos valores por encima del VaR, sin embargo esto no debería ser una regla ya que el valor puede no estar relacionado con las experiencias históricas o probables a futuro que se quieran analizar.

Cómo aplicarlo en la práctica para riesgo de mercado

1.- Tomar la serie de rendimientos en un período previamente seleccionado

2.- Calcular como base el Valor en Riesgo en el horizonte de tiempo y nivel de confianza escogido, utilizando preferiblemente las metodologías históricas o de simulación de Monte Carlo.

3.- Tomando como umbral el resultado del Valor en riesgo del punto anterior, extraer todos los valores que exceden dicho umbral.

4.- Con los valores extremos, se estiman los parámetros de la Distribución de Pareto Generalizada usando estimadores de máximaverosimilitudGraficar la distribución generalizada de Pareto con los parámetros calculados.

5.- Obtener el VaR extremo mediante el valor de corte dentro de la distribución de los valores extremos graficada al nivel de significancia seleccionado.

Cómo aplicarlo en la práctica para riesgo de mercado con el software Crystal Ball

1.- Tomar la serie de rendimientos en un período seleccionado (base diaria preferiblemente) o calcular las ganancias y pérdidas del activo o portafolio expuesto. Realizar el ajuste de distribución de los datos para determinar los parámetros estadísticos.

2.- Calcular el VaR por simulación de Monte Carlo. Tomar tanto como variable de entrada y pronóstico el promedio de la variable de ganancias y pérdidas (utilizando los parámetros de la distribución obtenidos en el punto anterior).

3.- Ordenar los rendimientos o ganancias y pérdidas diarias de menor a mayor y por diferencia con el VaR calculado en el punto 2, determinar los valores por encima de este.

4.- Al grupo de datos que exceden el VaR,  utilizar la herramienta “Ajuste de distribución de datos” y validar a que distribución generalizada de valores extremos se ajustan  (Weibull, Frechet, Gumbell, Pareto, etc.), en caso que no se ajuste a algunas de las distribuciones, la metodología no puede ser aplicada.

5.- Correr con los datos de valores extremos la simulación de Monte Carlo. El promedio de los valores de ganancias y pérdidas que exceden el umbral se define tanto como variable de entrada o supuesto (utilizando los parámetros obtenidos en el paso anterior), como de variable pronóstico.

6.- Con la distribución de frecuencia obtenida de la simulación, calcular el VaR extremo al nivel de confianza seleccionado.

Referencias:

1) Video Youtube 0398 Método de máxima verosimilitud. Curso estadística inferencial. Universidad Autónoma de México. 

2)Quantdare.  https://quantdare.com/teoria-valores-extremos-2





miércoles, 5 de septiembre de 2018

LA IMPORTANCIA DE LAS COLAS


Si alguna conclusión podemos extraer, de los cambios más profundos que en los últimos 20 años introduce Basilea en cuanto a materia de riesgo de mercado, es como las crisis financieras sucedidas, verifican la presencia de eventos extremos, cuya probabilidad de ocurrir son relativamente bajos, pero de muy alto impacto. De allí que las revisiones emitidas por la institución, en especial para los modelos internos, hayan hecho énfasis en analizar los valores extremos de las distribuciones de las series de precios o rendimientos de los activos financieros (transición de VaR al Expected Shortfall, el VaR estresado, escenarios de stress etc.) de manera que toman un importante papel para su análisis.

En el área de riesgo, el análisis de los eventos extremos se describe a través de la Teoría de Valores Extremos (EVT en sus siglas en inglés) cuyo enfoque se centra en el estudio de las colas de la distribución (valores más altos o bajos de la distribución de los valores de la variable en estudio).

En riesgo financiero es poco común encontrar un factor de riesgo cuya distribución de pérdidas se describa como una normal; por lo general, en riesgo de mercado, las distribuciones de pérdidas tienen alta curtosis, lo que indica que hay más probabilidad en las colas de estas distribuciones que en una normal.

Distribución de las colas pesadas

Distribuciones con altas curtosis se denominan distribución de colas pesadas. El capital de una entidad financiera puede verse significativamente afectado si no se caracteriza bien la distribución de estas colas pesadas.

Una distribución de cola pesada se distingue de la cola de una normal, en que en la primera decae mucho más lentamente, lo que significa que las probabilidades de encontrar valores extremos más grandes que en la normal son mucho mayores.


Fuente: Artículo: Estimadores del índice de cola y valor en riesgo(2010)

Métodos para el estudio de las colas
Mediante la teoría de valores extremos se hace el estudio de las colas.

Existen dos aproximaciones en esta teoría, el método de Máximo por Bloques, que considera el máximo valor que toma una variable aleatoria en periodos sucesivos de tiempo. Dichas observaciones son consideradas como valores extremos de la serie para cada uno de los periodos seleccionados.

El segundo tipo de metodología es conocido como Picos Sobre el Umbral (POT por sus siglas en inglés- Peaks Over Thresholds), los cuales se basan en las observaciones de una muestra que exceden un límite o umbral previamente definido. A diferencia de la aproximación anterior, la serie original no es dividida en bloques, sino que se define un umbral a lo largo de su historia, y aquellas observaciones que lo exceden se consideran valores extremos. El modelo POT tiene como ventaja que, gracias al uso más eficiente de la información, tiene mayor aplicación práctica.

En próximo post, revisaremos esta última metodología para su aplicación en modelos internos de riesgo de mercado.

Referencias

Mora Valencia, Andrés. Estimadores del índice de cola y el valor en riesgo.Colegio de Estudios Superiores de Administración - CESA, Bogotá - Colombia.2010




lunes, 23 de julio de 2018

Modelos de Backtesting para Expected Shortfall(ES)


A continuación, un resumen obtenido de dos trabajos relacionados con el tema y cuyos autores y títulos de trabajo se detallan abajo en las referencias.

Basilea propuso una transición desde el VaR con un nivel de significancia del 1% hacia el ES con un nivel de significancia del 2.5% como medida para la cuantificación del riesgo de mercado, sin embargo, no se planteó una definición formal de su backtesting (1).

Los modelos de backtesting para Expected Shortfall guardan diferencias con relación a las utilizadas para el Valor en Riesgo (VaR). En el post anterior se señaló que una de las principales diferencias es que el ES carecía de una propiedad matemática llamada elicatibilidad el cual el VaR sí lo cumplía, sin embargo, se pueden realizar las pruebas de backtesting del ES sin considerar esta propiedad.

Desde que Basilea ha anuciado la transición del VaR al ES,  en el aspecto del bactesting se han divulgado varios trabajos que abordan este tema recomendando diversas metodologías. Algunas de las metodologías hacen el uso tanto de modelos Garch como de Simulación de Montecarlo o ambos.

Aquí se muestran 3 metodologías que describen como se pueden aplicar:

1.      Aproximación de cuantiles de Emmer, Kratz y Tasche

El método de Emmer (2013) es una manera sencilla de hacer el backtest del Expected Shorfall basándose en la aproximación de backtesing a varios niveles de VaR. Aunque la aproximación que se consigue con este método no sea tan exacta como la obtenida con los otros dos métodos es el menos complejo y probablemente el que más se utilice en la práctica debido a su simplicidad (2)

La aproximación consiste en realizar pruebas de backtesting del VaR en un número seleccionado de cuantiles a un nivel de significancia, por ejemplo:

Si se supone que 𝛼 = 0.05 si se toman 4 puntos de cuantiles, se tiene que:

𝐸𝑆5%(𝑥) =≈ 1/4[𝑞1.25%(𝑋) + 𝑞2.5%(𝑋) + 𝑞3.75%(𝑋) + 𝑞5%(𝑋)]

Se puede asumir que se utiliza el mismo backtest para cada nivel de VaR, con un 95% de confianza al rechazar el modelo. Se aproxima el ES5% como la suma de 4 niveles distintos de VaR: 1,25%, 2.5%, 3.75% y 5%, asegurando que todos superan el backtesting del VaR.

2.      Modelo no paramétrico de Acerbi y Szekely

Acerbi y Szekely (2014) propusieron tres métodos distintos de backtesting para el Expected Shortfall. Los tres métodos son no-paramétricos, pero definen un test estadístico y utilizan simulaciones para encontrar la significación. La ventaja de estos métodos es que no se necesita hacer ningún supuesto paramétrico. (2)

Esta metodología necesita un mayor almacenamiento de información que el backtesting del VaR, pero resultan ser más potentes en cuanto a identificación estadística en momentos de alta volatilidad. Para las fronteras de significancia e identificación de potencia de los tests, Acerbi y Székely (2014) prueban las distribuciones Normal y t-Student (1)

Las simulaciones de Montecarlo se realizan dentro de una de las tres pruebas para encontrar los valores críticos con un nivel de significancia escogido.

3.      La distribución truncada de Rigui y Ceretta
Rigui y Ceretta propusieron una nueva forma de hacer el backtesting con el fin de mejorar los métodos ya existentes mencionados al principio. Las tres mejoras que propusieron son (1):

·         Utilizar la dispersión de la distribución truncada tomando como límite superior el VaR estimado, en vez de toda la función de probabilidad.

·         Permiten distribuciones de probabilidad distintas, hasta la distribución empírica, no se limitan a la Gaussiana. 

·         Permite verificar si cada violación individual del VaR es significativamente distinta del ES permitiendo verificar el error más rápidamente. 


¿Cuál método escoger?

Dependerá del método escogido para el cálculo del VaR y el ES. Si se utiliza el método de simulación de Montecarlo, el backtesting más adecuado es el método de Emmer, Kratz y Tasche o los métodos de Acerbi y Szekely.

Si se realizan métodos paramétricos para el cálculo del VaR y ES el método de Acerbi y Szekely será el más adecuado.

Si se utiliza simulación histórica para el cálculo del ES se recomienda la prueba de backtesting de Emmer, Kratz y Tasche.


REFERENCIAS

(1)    Sesma, Ana Maite. Expected Shortfall: Modelo de investigación de aplicación práctica y metodologías de Backtesting bajo FRTB. Trabajo de investigación, Universidad Complutense de Madrid. 06-2016
(2)    Backtesting Expected Shortfall: Una aplicación en acciones de energía tradicional y renovable. Daniel Velásquez, Andrés Mora-Valencia. Universidad EAFIT y Universidad de los Andes.

martes, 12 de junio de 2018

El Expected Shortfall como medida de riesgo de mercado en el marco de la revisión de Basilea del FRTB


En enero del 2016 el comité de Basilea, en el documento “Minimun capital requirements for market risk” bajo el Fundamental Review of the Trading Book (FRTB-Cartera de negociación), propuso realizar el cambio de la medida de valor en riesgo (VaR) al Expected Shortfall (ES), aplicado a los modelos internos en la determinación de los requerimientos de capital por riesgo de mercado.  Así, el cálculo  del VaR diario al 99% en un horizonte de 10 días, se modifica al ES al 97.5% como medida de riesgo.

En principio, la fecha límite exigida a las entidades para su implementación estaba fijada para enero de 2019, sin embargo, hasta la fecha de publicar este post, se ha pospuesto para después del 2020.

De esta manera el VaR como medida simplificada y fácil de entender es sustituida por otra, bastante similar y complementaria pero que tiene como atributo características que aventajan las propiedades del VaR, siendo la más importante, la captura del riesgo en las colas de la distribución, permitiendo la posibilidad de dimensionar las pérdidas más allá del VaR y adicionalmente el ES cumple la propiedad de subaditividad, convirtiéndola en una medida coherente de riesgo.

¿Qué es el Expected Shortfall?

“El expected shortfall (tail VaR) es la pérdida esperada por una cartera a un horizonte temporal determinado, una vez superado el VAR medido por el nivel de confianza elegido” (1).

Esta simplificada definición nos advierte, que el VaR, no desaparece como referencia importante para dimensionar riesgo de mercado, al contrario, en algunas metodologías, se toma como benchmark o umbral para calcular el ES, dado que esta es una probabilidad condicionada al VaR.

Razones del cambio

El objetivo dentro de la revisión del marco es asegurar una captura prudente del riesgo de cola y la elección de un capital adecuado durante los periodos de mucho estrés de los mercados financieros.  

El VaR ha sido criticado como medida de riesgo no coherente porque dentro de la teoría de la medida, no cumplía la propiedad de subaditividad, por lo que en un portafolio, el VaR de este podría ser mayor que el VaR de los activos individuales, contradiciendo la teoría de diversificación.

Por otra parte, la medida del VaR a 10 días mostraba incapacidad para capturar el riesgo de liquidez del mercado, esto último agrega un cambio importante que es la incorporación integral del riesgo de iliquidez al marco de riesgo de mercado. El Comité reconoció la importancia de incorporar el riesgo de iliquidez ya que durante la crisis se deterioran las condiciones de liquidez forzando a los bancos a mantener posiciones de riesgo durante mucho más tiempo de lo esperado, incurriendo en severas pérdidas (2)

Modelos para el cálculo del ES

Similar al cálculo del VaR, el ES tiene varias metodologías, tanto paramétricas como no paramétricas.

Entre las no paramétricas se encuentran:

Simulación histórica
No se asume ningún tipo de distribución de probabilidad, sino que los rendimientos futuros se comportan como los del pasado reciente, además incorpora la existencia de las colas gruesas en las rentabilidades. Como desventaja se destaca que da igual peso o ponderación a las observaciones pasadas y recientes y adicionalmente la selección de la muestra histórica tomada para el cálculo, influye de forma importante en los resultados.

En los paramétricos existe:

Método de simulación histórica filtrada (FHS)

Es un método semi-paramétrico, donde se combina el modelo de simulación histórica con modelos de volatilidad condicional (como el modelo GARCH), lo cual lo hace atractivo para trabajar con volatilidades cambiantes o heterocedásticas. (3)


El ES y los modelos de Backtesting

En los modelos internos una de las obligaciones de las entidades es validarlo con pruebas de backtesting. En este particular con el VaR hay desarrolladas varias metodologías que son bastantes sencillas de aplicar, lo cual no ocurre así con el ES. En este sentido…” en 2011 Gneiting publicó un artículo en el que demostraba que el ES carecía de una propiedad matemática llamada elicatibilidad el cual el VaR sí lo cumplía y que podría ser importante para realizar el backtesting del ES. Siguiendo su investigación, muchos pensaron que era imposible realizar un backtesting del ES. Sin embargo, desde entonces, se han publicado algunos artículos como el de Acerbi y Szekely (2014) en el que demuestran que sí es posible realizar el backtesting del ES siempre y cuando no se utilice la propiedad de la elicatibilidad”. (3)

La utilidad estadística de la elicatibilidad se resume en su capacidad tanto para comparar diferentes métodos estadísticos y dar sentido a los procedimientos de backtesting como para realizar predicciones y estimaciones por regresiones basadas en la media (4),  sin embargo como se refirió, aunque el ES no posee esta propiedad, se han encontrado métodos para la realización de los backtesting.

Nos referiremos a las metodologías del cálculo y las pruebas de Backtesting del ES en otra entrega.

REFERENCIAS

(1)    http://economipedia.com/definiciones/perdida-esperada-expected-shortfall.html
(2)    Documento de consulta: Revisión fundamental de la cartera de negociación. Comité de Supervisión Bancaria de Basilea. Mayo 2012
(3)    Sesma, Ana Maite. Expected Shortfall: Modelo de investigación de aplicación práctica y metodologías de Backtesting bajo FRTB. Trabajo de investigación, Universidad Complutense de Madrid. 06-2016
(4)    Cimpeam, Larisa. El uso de expectiles en la medición del riesgo. Comparativa con el VaR y con el ES. Trabajo de investigación, Universidad Complutense de Madrid. 07-2017


lunes, 7 de mayo de 2018

MANEJO DE LOS CONCEPTOS DE GESTIÓN DE RIESGO EN LAS EMPRESAS LATINOAMERICANAS


Continuando el análisis de los resultados del tercer benchmark llevado a cabo por la empresa Marsh Risk Consulting y RIMS (The Risk and Insurance Management Society) publicado a inicio de este año, indagaron si están familiarizados y son considerados útiles algunos conceptos como apetito de riesgos, risk velocity, análisis de interdependencia y correlación de riesgos, cuantificación y modelación de riesgos, implementación de indicadores de desempeño de riesgos (KRI’s), valor en riesgo (VAR) y riesgos emergentes.

De los resultados se destaca que en promedio un poco más del 20% de los encuestados no ha oído hablar de estos conceptos, y en especial los de mayor desconocimiento son el risk velocity y el Valor en riesgo. Apetito de riesgo y cuantificación y modelación de riesgo resultan los más conocidos y oídos.

En cuanto a la utilidad de estos conceptos risk velocity y valor en riesgo tienen una percepción baja, guardando correlación con el desconocimiento de estos términos. Entre los más útiles están la cuantificación y modelación de riesgos junto con apetito de riesgo y análisis de interdependencia y correlación de riesgos.

El apetito de riesgo y la cuantificación y modelación de riesgo son los conceptos más implementados por las organizaciones latinoamericanas, aunque los resultados también indican que similarmente se aplican los conceptos de valor en riesgo, KRI´s y análisis de interdependencia y correlación de riesgos. Llama la atención que el concepto de valor en riesgo es implementado a pesar de la percepción de su poca utilidad, lo que sugiere que la respuesta estuviera más relacionada con el sector bancario donde se aplica este concepto por razones regulatorias en casi todos los países.

Los resultados arrojan que indudablemente el conocimiento y aplicación de los conceptos asociados a la gestión de riesgo van de la mano con el nivel de preparación del profesional de riesgo y el grado de madurez de la organización en estos procesos.


lunes, 16 de abril de 2018

La gestión de riesgo en latinoamérica (parte 1)


Nivel de madurez y retos para su implantación 

Marsh Risk Consulting y RIMS (The Risk and Insurance Management Society) publicaron a inicio de este año los resultados del tercer benchmark de gestión de riesgos en Latinoamérica. En su reporte denominado “Reimagine risk: Capturando oportunidades en un mundo de riesgo” presentaron el estudio referente a la región y a la luz de los resultados obtenidos se destacan y reiteran todavía aspectos arraigados y avances en lo que a la gestión de riesgo se refiere.

Se destacan algunos aspectos que hacen concluir que existe todavía un amplio margen de oportunidades para los profesionales del área, tanto los que trabajan en la empresa, hasta actividades de consultoría y educación de manera que se refuercen conocimientos, técnicas y experiencias en el abordaje de la gestión de riesgo.

Esta conclusión se apoya en los siguientes resultados arrojados por “294 encuestas realizadas a través de un cuestionario en línea entre abril y agosto de 2017, con la participación de más de 10 países y 20 sectores económicos de la región” (pag. 74).

A continuación, algunos resultados asociados al nivel de desarrollo de la gestión de riesgo y barreras para su implantación:

a)   Según los resultados, un 25% de las organizaciones se ubica en niveles de madurez en la gestión integral de riesgo, lo que deja al 75% restante en grados de “no desarrollado” a “establecida” una gestión de riesgo. Destaca que la mayoría de las empresas en los niveles de desarrollo más avanzados son el sector financiero y minero que tradicionalmente han tenido una conciencia y sensibilización de los riesgos, impulsado por los elementos regulatorios a la que en especial el sector financiero está sometido desde hace muchos años, lo que deja la interrogante ¿sólo las empresas desarrollan modelos de gestión de riesgos cuando se ven sometidos a regulaciones y forzar el cumplimiento de las mismas y no como parte inherente al logro de los objetivos estratégicos y operativos?



b)    La interrogante anterior se ve en parte respondida por el  siguiente resultado relacionado con las barreras para implantación de un modelo de gestión de riesgo: “…encontramos que en su mayoría están relacionados con problemas de cultura organizacional, con la percepción de que la gestión de riesgos se debe hacer por cumplimiento en contraposición a implementarla como herramienta estratégica y, finalmente, con la falta de información y conocimiento clave sobre la gestión de riesgos y su importancia”(página 15).

Estos retos asoman por qué el nivel de la gestión de riesgo en el amplio sector del 75%, todavía se orienta a reaccionar una vez el riesgo se ha materializado y es allí donde se comienza a pensar en desarrollar y/o reforzar de una manera integral la gestión de riesgo. Es un factor cultural muy arraigado todavía en algunos países y sectores de pequeñas y medianas empresas.

En otra entrega analizaremos otros resultados de este interesante estudio.