Acessibilidade / Reportar erro

Métodos de medição de risco de mercado: um estudo comparativo

Market risk measurement methods: a comparative study

Resumos

A modelagem do risco de mercado é de grande importância para as instituições financeiras e outras firmas que participam do mercado financeiro. Os modelos e técnicas empregados no Brasil nem sempre são os mais adequados às nossas condições específicas. Este trabalho estuda dez modelos de estimação de risco (volatilidade) usando dados de ações brasileiras, e faz uma aplicação em determinação de VaR.

Risco financeiro; volatilidade; processos estocásticos; modelos não-lineares


Market risk modeling is very important to any company that participates of the financial market. Brazilian companies use models and techniques that not necessarily are the most suited for the features of the Brazilian markets. This paper compares ten risk (volatility) models, using Brazilian stock data, and uses them to determine VaR.

Financial risk; volatility; stochastic processes; non linear models


Métodos de medição de risco de mercado: um estudo comparativo

Market risk measurement methods: a comparative study

Paulo Henrique Soto Costa, Dr.I; Tara Keshar Nanda Baidya, PhDII

IProfessor Adjunto. PUC-Rio / Departamento de Engenharia Industrial. E-mail: pauloh@ind.puc-rio.br

IIProfessor Associado. PUC-Rio / Departamento de Engenharia Industrial . E-mail: baidya@ind.puc-rio.br

RESUMO

A modelagem do risco de mercado é de grande importância para as instituições financeiras e outras firmas que participam do mercado financeiro. Os modelos e técnicas empregados no Brasil nem sempre são os mais adequados às nossas condições específicas. Este trabalho estuda dez modelos de estimação de risco (volatilidade) usando dados de ações brasileiras, e faz uma aplicação em determinação de VaR.

Palavras-chave: Risco financeiro, volatilidade, processos estocásticos, modelos não-lineares.

ABSTRACT

Market risk modeling is very important to any company that participates of the financial market. Brazilian companies use models and techniques that not necessarily are the most suited for the features of the Brazilian markets. This paper compares ten risk (volatility) models, using Brazilian stock data, and uses them to determine VaR.

Key words: Financial risk, volatility, stochastic processes, non linear models.

INTRODUÇÃO

A área de Finanças apresentou um grande desenvolvimento nas últimas três décadas, que transformou o estudo deste ramo da Economia em uma ciência eminentemente quantitativa, onde são usadas ferramentas tais como estatística, séries temporais, cálculo, programação dinâmica e várias outras técnicas familiares à Engenharia de Produção.

Este trabalho estuda a modelagem do risco de aplicações em ações brasileiras, através de 10 modelos de diferentes graus de sofisticação, e aplica os resultados dos modelos na determinação do Valor em Risco.

Ele apresenta alguns dos principais pontos de uma tese de doutorado em Engenharia de Produção (COSTA, 2001); procurou-se empregar uma linguagem informal que facilite o entendimento dos temas abordados. Devido às restrições de espaço e ao caráter informativo deste artigo, foram omitidos alguns resultados numéricos, assim como a descrição de testes estatísticos e outras informações que estão disponíveis no texto de tese.

É interessante observar que as instituições financeiras, na sua grande maioria, possuem modelos quantitativos que medem o risco de suas posições. Estes modelos são importantes para um grande número de atividades, tais como a gerência do risco da instituição, a decisão de investimento e seleção de ativos, o estabelecimento de limites de risco e controle das decisões nos diversos níveis hierárquicos das instituições, a avaliação de gerentes e operadores, e o fornecimento de informações aos órgãos reguladores dos mercados financeiros, que controlam o risco destas instituições.

Entre os 10 modelos aqui analisados, alguns são de uso corrente no mercado, enquanto que outros são de interesse mais acadêmico, por serem mais complexos e mais difíceis de manipular e entender. O objetivo principal do trabalho é a avaliação, por diversos critérios, dos resultados obtidos pelos diferentes modelos, visando a escolha do modelo ótimo para medir o risco das ações brasileiras.

O trabalho tem, em sua seção 2, um estudo das propriedades estatísticas das séries de retornos das ações consideradas; segue-se a seção 3, onde são apresentados os modelos de risco, é comentada a estimação de seus parâmetros e são avaliados os resultados obtidos na modelagem. Na seção 4, os resultados da seção 3 são empregados para determinação de Valor em Risco e os resultados desta aplicação, um tanto surpreendentes, são analisados. A seção 5 apresenta as conclusões e recomendações para o prosseguimento da pesquisa. No apêndice apêndice está a formulação dos modelos em termos de equações.

PROPRIEDADES ESTATÍSTICAS

A caracterização das propriedades estatísticas das séries de retornos das ações é importante para permitir a correta aplicação de modelos aos dados.

Esta seção analisa estacionariedade, distribuição e independência em seis séries de retornos de ações: Telebrás, Petrobrás, Eletrobrás, Bradesco, Vale do Rio Doce e Brahma, todas preferenciais. A escolha foi feita entre as mais líquidas do mercado, na época do levantamento dos dados, de setores diferentes da economia.

Todas as séries têm 1200 observações de retornos diários, num período de aproximadamente cinco anos, de julho de 1994 a maio de 1999. Este período foi escolhido porque se inicia logo após o 'plano Real', dispensando o uso de deflatores, e por ser suficientemente longo, como são em geral os períodos de dados para estudos deste tipo.

Os retornos diários da ação da Telebrás, por exemplo, têm média 0,00131 e desvio padrão 0,0367. Para uniformização e facilidade de comparação entre as séries, elas foram padronizadas, ou seja, de cada observação foi subtraída a média, e o resultado foi dividido pelo desvio padrão, resultando séries de média zero e variância um. Todas as análises deste trabalho se referem às séries de retornos padronizados das ações. Na Figura 1 estão os retornos padronizados das ações da Telebrás.


Observando a série dos retornos padronizados da Telebrás, nota-se que existem algumas observações aberrantes, com valores da ordem de até dez desvios padrão. Estes valores extremos de retornos ocorreram em dias atípicos. Em função disto foi formada uma nova série de retornos para cada ação, da qual foram retirados cinco valores de retorno, correspondentes aos dias 10/3/95 (crise do México), 27/10/97 (crise da Ásia), 10/9/98 e 15/9/98 (crise da Rússia), e 15/1/99 (crise do Real) e foram acrescentados mais cinco dias no final.

Esta nova série foi chamada de série modificada de retornos. A série modificada de retornos diários Telebrás tem média 0,00085 e desvio padrão 0,0325. As séries modificadas também foram padronizadas, resultando duas séries de retornos padronizados para cada ação. Desta forma, as seis ações geraram doze séries de retornos, conforme a Tabela 1.

Estacionariedade

Séries financeiras, e especialmente séries de retornos de ações, dificilmente são bem representadas por processos lineares. Uma vez admitido que o processo não é linear, a questão da estacionariedade diminui de importância, pois processos não-lineares não-estacionários podem ter parâmetros com boas propriedades (pelo menos as assintóticas) e são muitas vezes empregados para representar séries financeiras.

Neste trabalho, foram feitas as seguintes análises de estacionariedade:

• Supondo que os dados são gerados por processo linear: foi aplicado o teste de Dickey e Fuller (1981) aumentado, que indicou estacionariedade para as 12 séries. Este teste, como todos deste trabalho, considerou nível de significância de 5%.

• Supondo que os dados são gerados por processo não- linear GARCH (1,1), há indicação, a partir dos coeficientes estimados, que as séries têm média constante, mas não se pode concluir quanto à variância.

• Sem fazer suposição quanto ao processo, o teste do coeficiente de bicorrelação indica que as séries têm média constante, conseqüentemente estacionária, enquanto que a regressão localmente ponderada dá a mesma indicação mas não é conclusiva para as séries menos líquidas (Bradesco e Brahma). Estes dois testes avaliam apenas a média, e não informam a respeito da variância.

O conjunto dos testes permite que se conclua que o processo gerador dos dados é estacionário na média, mas não permite conclusão quanto à variância.

Distribuição incondicional

Na Figura 2 estão apresentados os histogramas e algumas estatísticas descritivas das séries padronizadas de retornos de Telebrás, onde se observa que a série Original (OTELB) e também a série Modificada (MTELB) têm as caudas mais pesadas que as da distribuição normal; isto acontece para todas as ações e leva à rejeição da hipótese de normalidade dos retornos, para todas elas, usando-se o teste de Jarque-Bera (1987).


O modelo de Bachelier (1900) e Osborne (1959) assume que o preço das ações varia em decorrência do somatório de um número grande de mudanças que ocorrem transação a transação. Se estas mudanças são independentes, o teorema do limite central leva à conclusão de que as variações diárias (ou em outro intervalo de tempo maior) têm distribuição normal, se o número de transações for suficientemente elevado. A rejeição da normalidade dos retornos leva ao questionamento da sua independência temporal, o que será visto a seguir.

Independência

A questão da existência ou não de dependência em séries de retornos é de grande importância e resultou em inúmeras publicações, nem todas chegando às mesmas conclusões. Atualmente, a maior parte dos autores concorda que é muito difícil prever preços a partir de preços passados, mas a constatação da existência de dependência entre retornos consecutivos e a modelagem desta dependência são importantes para a quantificação (e gerência) do risco.

Dependência linear

Este tipo de dependência ocorre quando o processo gerador dos dados é linear ou, em outras palavras, quando o retorno de um dia qualquer é combinação linear de retornos passados, mais um termo aleatório. Se ela ocorre, as correlações entre retornos sucessivos (autocorrelações) são diferentes de zero. Então, foi usado o teste de Ljung-Box (1978), para verificar a existência de dependência linear: foi testado, para todas as séries, se as autocorrelações dos retornos defasados de um até quinze dias, tomadas conjuntamente, são iguais a zero.

A hipótese de autocorrelações nulas foi rejeitada para todas as séries, indicando, portanto, a existência de dependência linear.

Para quantificar esta dependência, foram ajustados modelos lineares às séries de retornos. Se o processo gerador dos retornos é linear, os modelos lineares devem expressar toda a dependência e seus resíduos devem ser independentes. No entanto, continua existindo autocorrelação entre os resíduos, embora menor que entre os retornos; e, mais importante, os resíduos ao quadrado são altamente correlacionados, portanto os resíduos não são independentes. A conclusão é que existe também dependência não-linear entre os retornos. A Figura 3 mostra a autocorrelação dos resíduos (barras mais escuras) e dos resíduos ao quadrado, para uma das séries.


Dependência não-linear

Para complementar as conclusões de não linearidade da dependência, tiradas das funções de autocorrelação, foi empregado o teste BDS, desenvolvido por Brock; Dechert; Scheinkman (1987), e que serve para testar se as variáveis aleatórias que compõem uma série são independentes e identicamente distribuídas (IID).

O teste foi aplicado às séries de retornos e às séries de resíduos dos modelos lineares ajustados aos retornos na seção anterior. Em ambos os casos foi rejeitada a hipótese de séries IID, constatando-se que o valor da estatística do teste para retornos e resíduos de uma mesma ação é muito semelhante. Isto indica que a dependência expressa pelo modelo linear é menos importante que a dependência não-linear existente nos retornos, que passa integralmente para os resíduos do modelo linear.

Na próxima seção, parte-se da informação aqui levantada para tentar modelar esta dependência não- linear.

Ainda quanto às propriedades estatísticas, é interessante observar que, à exceção dos parâmetros da distribuição incondicional, não há diferença marcante entre as propriedades de séries originais e modificadas (sem dias atípicos).

MODELOS DE VOLATILIDADE

Nesta seção está descrita a parte central do trabalho: são apresentados os dez modelos para previsão de volatilidade, são comentados os problemas na estimação dos seus parâmetros e são resumidos os resultados obtidos. A formulação matemática dos modelos está no apêndice apêndice .

E escolha dos modelos foi feita de maneira a abranger os modelos mais simples, de uso freqüente pelas instituições que atuam no mercado financeiro, modelos menos simples, com interesse na área acadêmica mas também empregados no mercado, e modelos mais complexos, de interesse apenas acadêmico.

A definição de volatilidade usada neste trabalho é a usual: desvio padrão dos retornos.

Como foi visto na seção 2, os retornos apresentam dependência no tempo, linear e não-linear. Este segundo tipo de dependência é que está relacionado com a volatilidade. Para isolar a dependência não-linear, os modelos de volatilidade serão aplicados aos resíduos dos modelos lineares aplicados aos retornos na seção 2. Estes resíduos, em princípio, estão livres da dependência linear, uma vez que ela já foi quantificada pelo modelo linear.

Por questão de simplicidade, os resíduos (xt) dos modelos lineares continuarão sendo chamados de retornos nesta seção, enquanto que os resíduos dos modelos de volatilidade é que serão chamados de resíduos.

Desta forma, para todos os modelos de volatilidade, o modelo do retorno é da forma xt=tet, em que et é independente e identicamente distribuído, com média zero e variância um; neste modelo, toda a dependência em xt (que é do tipo não-linear) vem da estrutura na volatilidade, e t é a previsão da volatilidade para o dia t, feita no dia anterior.

Um problema na modelagem da volatilidade é a avaliação da qualidade dos modelos: como saber se o modelo está prevendo bem, já que não se pode observar o valor realizado da volatilidade, para comparar com o previsto?

Uma maneira de avaliar os modelos é pelos seus resíduos: o quociente entre o retorno realizado em um dia e a previsão de volatilidade para aquele dia é o resíduo observado naquele dia. Ele é uma observação da variável aleatória et, definida no modelo dos retornos (xt=tet), e sua distribuição, por hipótese, deve ser IID . Se aceitarmos que o retorno, condicional à informação disponível, tem distribuição normal, então os resíduos devem ser IID normal (0,1). Assim, analisando as distribuições empíricas dos resíduos, pode-se avaliar a qualidade das previsões dos modelos.

Outra maneira de avaliar os modelos é estimar diretamente os erros de previsão. Neste caso é necessário comparar as previsões com representantes da volatilidade observada. Elevando ao quadrado ambos os lados da equação do modelo dos retornos e tomando o valor esperado, vê-se que o valor esperado do retorno ao quadrado é o quadrado da volatilidade (que é a variância); isto sugere que se use o quadrado do retorno observado em um dia como representante da variância observada naquele dia. Raciocínio análogo justifica que se use o valor absoluto do retorno observado em um dia como representante da volatilidade observada naquele dia. Os erros de previsão computados destas duas maneiras são aqui empregados, juntamente com a análise dos resíduos, na avaliação da qualidade da previsão dos modelos.

Descrição dos modelos

Média móvel

É o modelo mais simples e talvez o mais usado no mercado: ele prevê a volatilidade para amanhã como sendo igual ao desvio padrão amostral dos retornos observados nos últimos dias. Neste trabalho, foi usada uma janela de 20 dias.

Amortecimento exponencial do retorno quadrado

Este modelo é uma extensão do anterior: aqui, o desvio padrão é calculado dando-se mais peso às observações mais recentes, e menos às mais antigas. Os pesos dados às observações decrescem geometricamente, segundo uma progressão geométrica (PG) de razão menor que um. Esta razão chama-se fator de decaimento, e é o único parâmetro do modelo, estimado por mínimos quadrados. Sua estimação foi simples e sem problemas.

Amortecimento exponencial do retorno absoluto

Este modelo, desenvolvido por Taylor (1986) é uma variante do anterior. Aqui, não é calculado o desvio padrão: a volatilidade prevista para amanhã é proporcional à média ponderada dos valores absolutos dos retornos observados, também usando amortecimento exponencial. A estimação do fator de decaimento também não apresentou problemas.

GARCH (p,q)

Os modelos da família GARCH (Generalised Auto Regressive Conditional Heteroscedasticity) são de grande importância em Finanças. Eles foram criados por Engel (1982) e generalizados por Bollerslev (1986).

Nesta modelagem, a variância prevista para um dado dia é função linear dos quadrados dos retornos observados nos últimos q dias e das variâncias previstas para os últimos p dias. Usualmente, p =q =1 são os melhores valores para as quantidades de dias.

Os parâmetros do modelo são os coeficientes da função linear, e são estimados pelo método da máxima verossimilhança. Muitos programas pacote têm rotinas prontas para estimá-los.

EGARCH (p,q)

Nelson (1991) criou uma importante variante dos modelos GARCH: o GARCH exponencial, ou EGARCH.

Aqui, o logaritmo da variância prevista para um dado dia é função linear dos valores absolutos dos retornos observados nos últimos q dias e dos logaritmos das variâncias previstas para os últimos p dias. Usualmente, p=q=1 são os melhores valores para as quantidades de dias.

Nelson introduziu também um parâmetro para modelar a assimetria da volatilidade ao sinal do retorno: esta assimetria consiste no fato de a volatilidade após um retorno negativo ser, usualmente, maior que após um retorno positivo, de mesma magnitude.

Os parâmetros do modelo são os coeficientes da função linear e o parâmetro de assimetria, e são estimados pelo método da máxima verossimilhança. Como para os modelos GARCH, vários programas de computador têm rotinas para estimar o EGARCH, e a estimação não apresentou dificuldades.

Hentschel: garch (1,1) generalizado

Hentschel (1995) desenvolveu um modelo que generalizou o trabalho de Nelson, e engloba a maior parte dos modelos da família GARCH.

O modelo de Bollerslev relaciona variâncias e retornos quadrados; o de Nelson, logaritmos de variâncias com retornos absolutos (ou variâncias com exponenciais de retornos absolutos, daí o nome do modelo). Já Hentschel relaciona linearmente volatilidades elevadas a uma potência l com retornos absolutos elevados a uma potência x. Por exemplo, se x = l = 2, resulta modelo GARCH; se l ® 0 e x = 1, resulta modelo EGARCH e estes dois modelos são, portanto, casos particulares do modelo de Hentschel.

Além disto, Hentschel usa dois parâmetros para modelar a assimetria.

Os parâmetros do modelo são os coeficientes da função linear, os expoentes l e x e os dois parâmetros de assimetria, e são estimados pelo método da máxima verossimilhança. Foi necessário programar a rotina de estimação para este modelo.

Este é um modelo pouco parcimonioso (tem muitos parâmetros) e sua estimação foi problemática para as séries de papéis menos líquidos.

Gray: GARCH (1,1) com troca aleatória de parâmetros

Este modelo foi desenvolvido por Gray (1996). A idéia é que a volatilidade na data t segue um de dois regimes, dependendo de qual dos dois possíveis estados da natureza, St=1 ou St=2, ocorre.

Para St=1, a volatilidade segue um modelo GARCH1, com um determinado conjunto de parâmetros.

Para St=2, a volatilidade segue um modelo GARCH2, com outro conjunto de parâmetros

Os estados da natureza não são observáveis e seguem um processo de Markov de primeira ordem. Se o estado da natureza é St=1, a probabilidade de continuar nele é P e a de trocar de estado é (1-P). Se o estado da natureza é St=2, a probabilidade de continuar nele é Q e a de trocar de estado é (1-Q).

Os parâmetros do modelo são os dois conjuntos de parâmetros GARCH, mais as probabilidades de transição P e Q. A estimação é pelo método da máxima verossimilhança. Aqui também, foi necessário programar a rotina de estimação dos parâmetros.

A estimação deste modelo, que também não é parcimonioso, foi problemática para algumas séries, e não houve convergência para as duas séries de Vale do Rio Doce.

Gray simplificado

Para tornar o modelo de Gray mais parcimonioso, ele foi aqui simplificado: no segundo estado da natureza, ao invés de um modelo GARCH diferente, a volatilidade segue o mesmo modelo do primeiro estado, porém com todos os coeficientes multiplicados por uma mesma constante K.

A estimação deste modelo foi ainda problemática para algumas séries, mas houve convergência para todas elas.

Volatilidade de Parkinson

Este modelo é baseado em trabalho de Hsieh (1993), que descreve o logaritmo da volatilidade como sendo uma combinação linear dos logaritmos das volatilidades passadas, mais um ruído aleatório. Trata-se, portanto, de um modelo de volatilidade estocástica e seus parâmetros são os coeficientes da combinação linear.

Para simplificar o processo de obtenção destes parâmetros, a volatilidade diária é, nesta modelagem, uma variável observável: ela é, como em Kupiec (1990), o desvio padrão por extensão de Parkinson (1980), que é o logaritmo do quociente entre o maior e o menor preço observados no dia, multiplicado por uma constante.

Assim, a estimação dos parâmetros do modelo de volatilidade passa a ser um problema de regressão linear múltipla e foi feita sem problemas.

Taylor: volatilidade lognormal autorregressiva

Este modelo é proposto por Taylor (1986) e, como no anterior, a volatilidade é estocástica; ele supõe que o logaritmo da volatilidade tem distribuição normal. Ele supõe também que o logaritmo da volatilidade de um dia é função linear do logaritmo da volatilidade no dia anterior (mais um ruído aleatório).

Taylor mostra que, com estas premissas, as autocorrelações do logaritmo da volatilidade são proporcionais às do valor absoluto do retorno, e desenvolve um processo para prever a volatilidade a partir do valor absoluto dos retornos observados.

O modelo tem apenas dois parâmetros que são estimados por mínimos quadrados. Sua estimação foi simples e não apresentou problemas.

Avaliação dos modelos

Os parâmetros dos modelos foram estimados com base nos primeiros 800 dias de dados, que são chamados "amostra de estimação"; os 400 dias finais foram reservados para análises e são chamados "amostra de validação" . Assim, há 240 séries (6 ações, séries originais e modificadas, e 10 modelos de volatilidade, amostra de estimação e de validação) de resultados a avaliar.

Resíduos

Para verificação das características da distribuição empírica dos resíduos dos modelos foram feitas as seguintes análises:

• Teste de normalidade Jarque-Bera: para as 240 séries de resíduos houve rejeição da hipótese de normalidade. Ele não foi usado para comparação entre modelos.

• Coeficiente de curtose: a rejeição de normalidade se deve ao excesso de curtose. Uma indicação da qualidade do modelo é o coeficiente de curtose de seus resíduos: quanto menor (mais próximo de três, que é o coeficiente de curtose da distribuição normal) melhor o modelo, assumindo-se que os retornos condicionais à informação disponível deveriam, por hipótese, ser normais.

• Autocorrelação dos resíduos: se os resíduos são independentes, eles devem ser também descorrelacionados. Para avaliar esta autocorrelação, usou-se o teste de Ljung-Box, para testar a hipótese de serem conjuntamente nulas as primeiras quinze autocorrelações dos resíduos.

• Autocorrelação dos resíduos ao quadrado: foi visto na seção 2 que os quadrados dos retornos são altamente correlacionados; isto é indicação de dependência não-linear. Então, se o modelo quantificou esta dependência, ela não pode estar presente nos quadrados dos seus resíduos. Para avaliar a autocorrelação dos quadrados dos resíduos também foi usado o teste de Ljung-Box, da mesma forma que para os resíduos.

• Teste BDS: este teste já foi usado na seção 2, para testar independência entre os retornos, e é novamente usado aqui para verificar se os resíduos são IID.

Na análise dos resíduos dos modelos ficou constatada a sua não normalidade, mas não há homogeneidade nos resultados obtidos pelos quatro outros critérios, nem entre resultados nas amostras de estimação e validação. A exceção é o método de médias móveis que se mostrou sempre pior que os demais, no que diz respeito a resíduos.

Na Tabela 2 está um resumo dos resultados obtidos nos quatro critérios de comparação. Os resultados são as médias, para cada modelo, dos resultados obtidos nas 12 séries, na amostra de validação.

Na primeira linha está a média dos coeficientes de curtose: as menores curtoses são, na média, as do modelo de Gray completo e de volatilidade de Parkinson e as piores são as dos três primeiros (os mais simples).

Na segunda linha está a média dos p-valores do teste de Ljung-Box para os resíduos (dependência linear): os modelos de Gray completo, médias móveis e amortecimento do retorno absoluto apresentaram médias piores (mais baixas) que os demais.

Na terceira linha, o mesmo teste para os resíduos quadrados (dependência não-linear): aqui os resultados indicam que os modelos, de modo geral, capturaram a dependência não-linear; os modelos de médias móveis e Hentschel ficaram abaixo da média dos demais.

Finalmente, as médias das estatísticas do teste BDS (dependência de qualquer tipo) mostram novamente os três primeiros modelos com médias piores que os demais, ressaltando-se o bom desempenho do EGARCH.

De maneira geral, o melhor compromisso entre resultados para os resíduos das 120 séries-modelos ficou com o modelo de Taylor e o EGARCH, mas não chega a haver um predomínio marcante sobre os demais.

Nota-se também que não há diferença sensível nos resultados de séries originais e modificadas, e que há uma tendência de as séries dos papéis mais líquidos terem melhores resíduos, indicando uma maior facilidade de modelagem para estas séries.

Erros de previsão

Os erros de previsão foram computados a partir da comparação dos valores previstos com representantes dos valores reais, já que estes não são observáveis. Foram usados dois representantes diferentes, o que resultou em dois processos para calcular os erros de previsão.

O primeiro processo considera como erro de previsão, a diferença entre o quadrado da volatilidade (a variância condicional) prevista para o dia e o quadrado do retorno realizado naquele dia; a grandeza que vai medir o erro para a série é a raiz quadrada da média dos quadrados destes erros, ou seja,

onde N é o tamanho da amostra.

O segundo processo considera como erro a diferença entre a volatilidade prevista para o dia e o valor absoluto do retorno realizado naquele dia; a grandeza que vai medir o erro da série é a média dos quadrados destes erros, ou seja,

Na Tabela 3 está um resumo dos resultados obtidos para os erros de previsão.

Como as volatilidades das séries são diferentes, os erros de previsão foram padronizados (divididos pela variância ou desvio padrão incondicional) para cada série, antes da ser feita a média.

Na primeira linha estão os erros (padronizados) determinados pelo primeiro processo: as diferenças não são grandes, mas nota-se o bom desempenho do EGARCH e o mau desempenho do primeiro modelo. Os erros medidos pelo segundo processo tendem a confirmar o comentário acima; as exceções são o modelo de Taylor, que teve o erro mais baixo e o de amortecimento do retorno absoluto. Observe-se que estes dois modelos são estimados a partir dos retornos absolutos, o que explica em parte esta melhora.

Como na seção anterior, não é fácil resumir os resultados obtidos mas, de maneira geral, o melhor compromisso entre resultados para todas as séries-modelos ficou com EGARCH e o modelo de Taylor, novamente sem um predomínio marcante. Entretanto, há novamente um destaque negativo para o modelo de médias móveis.

Valem as mesmas observações a respeito das diferenças (não marcantes) entre séries originais e modificadas e dos melhores resultados para as séries mais líquidas.

VALOR EM RISCO (VaR)

O conceito de valor em risco foi popularizado na primeira metade dos anos 1990, com a divulgação, em 1993, do documento técnico do RiskMetrics, pelo banco J. P. Morgan - vide referência Morgan (1995). Este documento divulgou as técnicas de gerenciamento de risco empregadas pelo banco e, de certa forma, tornou-se uma referência no mercado financeiro. Isto ocorre porque o VaR é um conceito intuitivo, de fácil entendimento, e de fácil determinação.

O VaR associado a uma posição em ativos financeiros é a maior perda que pode ocorrer, com uma dada probabilidade, em um certo intervalo de tempo, em condições normais de mercado. Neste trabalho, a perda será especificada em termos de retorno, a probabilidade será de 95% e o intervalo de tempo será um dia.

A probabilidade de 95% é conveniente porque, se o VaR estiver bem calculado, há uma chance em 20 de o retorno ser pior que o VaR; isto corresponde a um dia em cada 20, ou seja, aproximadamente uma vez por mês. Assim, como a ultrapassagem do VaR pelo retorno não é um evento raro, é possível verificar se o VaR está bem especificado simplesmente observando a proporção de dias em que ele é ultrapassado.

Como a normalidade dos resíduos foi rejeitada para todos os modelos e séries, optou-se por determinar o VaR multiplicando a previsão de volatilidade de cada modelo pelo quantil de 5% da distribuição empírica dos resíduos correspondentes. Aqui também foi empregada a divisão dos 1200 dias de dados em 800 dias de amostra de estimação, onde foram estimados os parâmetros dos modelos e obtidos os resíduos e respectivos quantis, e 400 dias de amostra de validação, onde foi calculado o VaR diário.

De posse dos retornos reais observados na amostra de validação, foi feita a contagem dos dias em que o VaR foi ultrapassado, para cada série/modelo.

Como são 400 dias na amostra de validação, o valor esperado do número de ultrapassagens é 20 (5% de 400) e, usando-se o teste de Kupiec (1995), não se pode rejeitar a hipótese de que o modelo de VaR está bem especificado se o número de ultrapassagens estiver no intervalo [13,29].

Na Tabela 4 está o número de ultrapassagens do VaR para cada série-modelo.

Na tabela, os valores marcados com um asterisco correspondem à não rejeição da hipótese de boa especificação do modelo, e eles correspondem a cerca de 50% das células, concentrando-se nas séries mais líquidas e/ou nos modelos menos sofisticados.

Não se nota diferença sistemática, mais uma vez, entre os resultados para os modelos de séries originais e modificadas.

Quanto à avaliação do desempenho dos modelos, pode-se notar que as melhores médias (mais próximas de 20) são as dos três modelos mais simples: o de médias móveis, e os dois de amortecimento exponencial. Este resultado é, aparentemente, absurdo, pois indica que a melhora do modelo de volatilidade piora os resultados do VaR.

Como estes resultados de desempenho dos modelos podem ser conseqüência de não estacionariedade das séries, deve ser possível melhorar os resultados diminuindo o período de previsão fora na amostra, ou seja a amostra de validação. Para verificar se isto ocorre, aquele período foi reduzido de 400 para 100 dias, foram feitas as estimativas do VaR, e foi aplicado o teste de Kupiec para avaliar se as contagens de ultrapassagens de VaR foram mais razoáveis. Os resultados da Tabela 5 mostram que, com 100 dias, 86% das contagens passaram no teste, indicando que realmente houve uma melhora; no entanto, os três primeiros modelos continuaram com médias melhores que os demais.

Os resultados acima indicam que os modelos mais simples, como os de amortecimento exponencial, apresentam boas contagens de ultrapassagens de VaR, o que nem sempre acontece com os demais. Haveria vantagem em usar modelos mais sofisticados?

Os bancos centrais e outros órgãos reguladores dos mercados financeiros exigem que as instituições financeiras mantenham reservas proporcionais ao VaR de suas aplicações: desta forma, é interessante para a instituição usar um modelo de volatilidade que, além de atender à contagem de ultrapassagens dentro dos limites do teste de Kupiec, minimize o valor médio (absoluto) do VaR.

Com base nesta idéia, calculou-se o VaR médio diário correspondente a cada modelo, nas séries onde a contagem de ultrapassagens ficou dentro do intervalo de confiança de Kupiec.

Os resultados obtidos para uma destas séries, OTELB, estão apresentados na Tabela 6, e são análogos aos das demais. Eles estão organizados do melhor para o pior modelo.

Verificou-se que os modelos mais simples apresentam valores médios mais altos para o VaR sendo, portanto, mais vantajoso o uso dos outros modelos, desde que atendida a restrição de contagem do número de ultrapassagens.

As Figuras 4 e 5 ilustram a razão para diminuição do VaR médio quando é usado um melhor modelo de volatilidade; nestas figuras, pode-se notar que a curva de VaR do modelo de amortecimento exponencial do retorno quadrado segue de longe os mínimos dos retornos, enquanto que a curva de VaR do modelo EGARCH apresenta um comportamento melhor sob este aspecto, sem tantos 'claros' entre o VaR e os mínimos dos retornos.



Se a curva de VaR do EGARCH está mais próxima dos mínimos dos retornos, ela também está, em média, mais próxima do eixo horizontal, ou seja, o valor médio diário do VaR obtido pelo EGARCH deve ser menor (em valor absoluto) que o do outro modelo. Observe-se que, em ambas as curvas, o número de ultrapassagens do VaR está dentro dos limites do intervalo de confiança de Kupiec.

CONCLUSÕES E DISCUSSÕES

Nesta seção são abordados alguns pontos importantes que dizem respeito ao trabalho como um todo.

• Quanto à estimação dos modelos, ela foi feita sem problemas para sete dos dez modelos: os algoritmos de estimação convergiram sem problemas e os valores parâmetros ficaram dentro do esperado. Os problemas aconteceram com os dois modelos de Gray e o de Hentschel, justamente os que têm maior quantidade de parâmetros: dificuldade de convergência do algoritmo de estimação, restrições sobre valores de parâmetros se mostrando ativas, valores de parâmetros muito diferentes para diferentes séries e, algumas vezes, fora da faixa razoável. Os problemas foram maiores nas séries menos líquidas. A conclusão é que estes três modelos não são adequados às características de nossas ações.

• A criação das séries modificadas, com menos observações extremas, permitiu que se verificasse que estas observações influenciam fortemente a forma da distribuição incondicional dos retornos, e seus momentos de ordem dois ou mais. No entanto, propriedades como estacionariedade e dependência não parecem ser muito diferentes nas séries originais e modificadas. A estimação dos modelos mostrou que os parâmetros podem se alterar um pouco mas, em termos gerais, as propriedades dos resíduos e os erros de previsão de modelos de séries originais não são melhores nem piores que de modelos de séries modificadas, e também não se altera a qualidade dos resultados do VaR, em termos de número de ultrapassagens. Conclui-se que o problema de retirar ou não as observações aberrantes, talvez em função da maior volatilidade das séries brasileiras, não é tão importante aqui como é nos trabalhos com séries de retornos de ações nos países desenvolvidos.

• A relativa homogeneidade das propriedades estatísticas das séries, que foi comentada na seção 2 , não se mantém nas duas seções seguintes: as séries das três ações mais líquidas são em geral mais 'bem comportadas' que as das outras três, tendendo a apresentar maior facilidade de estimação, melhores resíduos, menores erros de previsão e melhores contagens de ultrapassagens do VaR. Considerando que as séries de ações aqui estudadas foram escolhidas por serem as mais líquidas (em setores diferentes) do mercado, pode-se esperar maior dificuldade para a modelagem da volatilidade de ações fora deste grupo de seis, ou seja, da maioria das ações brasileiras.

• Na seção 2 concluiu-se que as séries de retornos são estacionárias na média mas não há, no entanto, indicação segura de que elas sejam estacionárias também na variância. Pelo contrário, há fortes evidências de não- estacionariedade:

1. o fato de a variância (incondicional) de todas as séries ser maior na amostra de validação;

2. os resultados obtidos na avaliação dos modelos, na seção 3;

3. o fato de as previsões de VaR feitas a partir dos modelos de variância não estacionária (médias móveis, amortecimento exponencial) terem tido melhores contagens de ultrapassagens do VaR que as dos outros modelos, na seção 4;

4. a melhora dos resultados de contagens de ultrapassagens de VaR quando se reduz o tamanho da amostra de validação.

Esta não estacionariedade explicaria o fraco desempenho dos modelos mais sofisticados: a inadequação dos modelos aos dados estaria nivelando por baixo o seu desempenho.

• Todos os modelos de volatilidade produziram resíduos não normais, e ainda com alguma estrutura, levando à conclusão que nenhum deles consegue representar adequadamente o processo gerador dos dados. No conjunto das avaliações da seção 3 (resíduos e erros de previsão, dentro e fora da amostra), ficou claro o desempenho ruim do modelo de médias móveis, e o modelo de Taylor e o EGARCH mostraram o melhor desempenho. Se forem levados em conta os resultados da seção 4 , e também a simplicidade e consistência da sua formulação teórica, conclui-se que o EGARCH é o melhor modelo para representar as séries analisadas, e que os modelos mais sofisticados não são adequados para o 'mau comportamento' das séries de retornos das ações brasileiras.

O resultado da comparação entre modelos está dentro do que seria esperável: os modelos sofisticados tiveram problemas da estimação e não apresentaram resultados melhores que os demais. Os modelos mais simples tiveram bom desempenho apenas na contagem de ultrapassagens de VaR, mas com VaR médio elevado. Restaram o modelo de Taylor, o GARCH e o EGARCH, com o último superando o penúltimo na maioria das comparações.

O bom desempenho do EGARCH decorre, em grande parte, de sua capacidade para modelar a assimetria da volatilidade com relação ao sinal do retorno: o parâmetro que captura esta assimetria foi significante para todas as séries, mostrando que a volatilidade das ações brasileiras aumenta mais depois de um retorno negativo do que de um positivo.

Muitas são as possibilidades de complementação e continuação deste trabalho, dada a abrangência do assunto. A seguir, são citadas algumas delas:

• Diminuir os períodos dentro e fora da amostra / reestimar os modelos com freqüência: esta é talvez a continuação mais óbvia, pois permitiria a verificação empírica da explicação de mau desempenho, no VaR, dos modelos sofisticados, através da não estacionariedade dos retornos. Entretanto, esta é uma tarefa de grande carga computacional, pois consistiria em repetir quase todo o processamento feito neste trabalho, tantas vezes quantas fossem as reestimações dos modelos.

• Incluir séries estrangeiras: esta também é uma continuação importante pois permitiria, com uma carga computacional relativamente baixa, a verificação empírica das explicações de mau desempenho, em geral, através do 'mau comportamento' das séries. Uma série como por exemplo a do índice S&P 500, do mercado de ações norte americano, serviria como paradigma da série 'bem comportada', e suas avaliações, em termos de facilidade de estimação, resíduos, erros de previsão e VaR poderiam ser uma espécie de benchmark para comparação com as séries brasileiras.

• Incluir volatilidades implícitas: mesmo reconhecendo a pouca liquidez da maioria das opções sobre ações brasileiras, algumas volatilidades implícitas poderiam ser determinadas e consideradas como as observadas, e assim permitir alguma espécie de calibragem dos erros de previsão, dando maior confiabilidade àquela análise. A forma exata de fazer isto seria definida em função da quantidade e qualidade dos dados disponíveis.

• Estimar modelos com resíduos não normais: a normalidade condicional dos retornos, embora tenha um atrativo teórico, não tem uma clara comprovação empírica. A estimação dos modelos pelo método da máxima verossimilhança supondo, por exemplo, resíduos com distribuição t poderia levar a modelos com melhores propriedades, em termos de resíduos, erros de previsão e VaR. Se isto ocorresse, além do ganho por se conseguir uma melhor modelagem, ter-se-ia evidência empírica contra a hipótese de normalidade condicional dos retornos brasileiros.

Artigo recebido em 07/04/2002

Aprovado para publicação em 30/04/2003

APÊNDICE: equacionamento dos modelos

1 - Médias móveis

em que

t, = volatilidade estimada para o dia t

xk = retorno do dia k

2 - Amortecimento exponencial do retorno quadrado

em que, q = parâmetro, 0 < q < 1

3 - amortecimento exponencial dos retornos absolutos

em que, mk = retorno absoluto do dia k

4 - GARCH (p,q)

com parâmetros w > 0; ai, bi> 0

5 - EGARCH (p,q)

em que, gi = parâmetros de assimetria

6 - HENTSCHEL: GARCH(1,1) generalizado

em que, b, c = parâmetros de assimetria l, x = expoentes (parâmetros) dos termos defasados

7 - GRAY: GARCH(1,1) com troca aleatória de parâmetros

Para St=1

Para St=2

Pr[St = 1|St-1 = 1] = P,

Pr[St = 2|St-1 = 1] = (1 - P),

Pr[St = 2|St-1 = 2] = Q,

Pr[St = 1|St-1 = 2] = (1 - Q) ; 0 < P,Q < 1

8 - GRAY simplificado

Para St=1

Para St=2

9 - Volatilidade de PARKINSON

com, ht IID (resíduo aleatório)

vt = (0,361 x 1440/M)1/2 log (maxt/mint) = desvio padrão de Parkinson

em que: maxt e mint = preço máximo e mínimo da ação no dia t

M = número de minutos em um dia de pregão

10 - TAYLOR: volatilidade lognormal autorregressiva

log(Vt) - m = f {log(Vt-1) - m} com, ht IID (resíduo aleatório)

= autocorrelações dos retornos absolutos

Determinar k e f para minimizar a função

com 0<k<0<1

em que: rtm = autocorrelações amostrais dos retornos absolutos

  • BACHELIER, L. , "Theory of speculation" (1900), reprinted in Cootner, P. "The random character of stock market prices", 17-78, MIT Press : Cambridge, USA (1964).
  • BOLLERSLEV, T. "Generalized conditional heteroskedasticity" Journal of Econometrics, 31, 307-328 (1986).
  • BOX, G. E. P. e JENKINS, G. M. "Time series analysis forecasting and control", edição revista, Holden-Day, San Francisco, EUA (1976).
  • BROCK, W. , DECHERT, W. e SCHEINKMAN, J. "A test for independence based on the correlation dimension", working paper. Univ. of Wisconsin, Univ. of Houston and Univ. of Chicago (1987).
  • COSTA, P. H. S. , "Séries de retornos de ações brasileiras: volatilidade e valor em risco", tese de doutorado. PUC-Rio, Dep. Engenharia Industrial (2001).
  • DICKEY, D. A. e FULLER, W. A. , "Likelihood ratio tests for autoregressive series with a unit root" Econometrica 49, 1057-1072 (1981).
  • ENGLE, R. F. , "Autoregressive conditional heteroscedasticity with estimates of the variance of United Kingdom inflation" Econometrica, 50, 987-1007 (1982).
  • GRAY, S. F. "Modeling the conditional distribution of interest rates as a regime-switching process", Journal of Financial Economics, 42, 27-62 (1996).
  • HENTSCHEL, L. "All in the family: Nesting symmetric and asymmetric GARCH models". Journal of Financial Economics, 39, 71-104 (1995).
  • HSIEH, D. . "Implications of nonlinear dynamics for financial risk management", Journal of Financial and quantitative Analysis, 28.1, 41-64 (1993).
  • J. P. Morgan Bank. "RiskMetrics technical manual". New York: J. P. Morgan Bank (1995).
  • JARQUE, C. e BERA, A. , "A test for normality of observations and regression residuals". International Statistical Review, 55, 163-172 (1987).
  • KUPIEC, P. , "Futures margins and stock price volatility: is there any link?", Board of Governors of the Federal Reserve System, Finance and Economics Discussion Paper n. 104 (1990).
  • KUPIEC, P. "Techniques for verifying the accuracy of risk measurement models". Journal of Derivatives, 2, 73-84 (1995).
  • LJUNG, G. M. e BOX, G. E. P. "On a measure of the lack of fit in time series models", Biometrika 65, 297-303 (1978).
  • NELSON, D. B. "Conditional heteroskedasticity in asset returns: A new approach". Econometrica, 59, 347-370 (1991).
  • OSBORNE, M. M. , "Brownian motion in the stock market". Operations Research, 7, 145-173 (1959).
  • PARKINSON, M., "The extreme value method of estimating the variance of the rate of return". Journal of Business, 53, 61-65 (1980).
  • TAYLOR, S. J. "Modelling Financial; Time Series", John Wiley & Sons, USA (1986).

apêndice

Datas de Publicação

  • Publicação nesta coleção
    30 Mar 2007
  • Data do Fascículo
    2003

Histórico

  • Aceito
    30 Abr 2003
  • Recebido
    07 Abr 2002
Associação Brasileira de Engenharia de Produção CNPJ: 30.115.422/0001-73, Avenida Cassiano Ricardo, Nº 601, Residencial Aquarius, CEP: 12.246-870, http://portal.abepro.org.br/ - São José dos Campos - SP - Brazil
E-mail: production@editoracubo.com.br