Abstract
The study contrasts mainstream economics–operating on time scales of hours and days–with behavioural finance, econophysics and high-frequency trading, more applicable to short-term time scales of the order of minutes and seconds. We show how the central theoretical assumption underpinning prevailing economic theories is violated on small time scales. We also demonstrate how an alternative behavioural econophysics can model reactions of market participants to short-term movements in foreign exchange markets and, in a direct contradiction of the orthodox economics, design a rudimentary IsingFX automated trading system.
By replacing costly human forex dealers with banks of Field-Programmable Gate Array (FPGA) devices that implement in hardware high-frequency behavioural trading models of the type described here, brokerages and forex liquidity providers can expect to gain significant reductions in operating costs.
Fonte:
Christopher A. Zapart, Econophysics: A challenge to econometricians, Physica A: Statistical Mechanics and its Applications, Volume 419, 1 February 2015, Pages 318-327, ISSN 0378-4371, http://dx.doi.org/10.1016/j.physa.2014.10.013.
(http://www.sciencedirect.com/science/article/pii/S0378437114008516)
Keywords: Econophysics; Econometrics; Approximate Entropy; Ising spin model; High-frequency trading; Foreign exchange currency markets
Mostrando postagens com marcador econometria. Mostrar todas as postagens
Mostrando postagens com marcador econometria. Mostrar todas as postagens
22 janeiro 2015
12 dezembro 2014
Crescimento da Econometria Bayesiana
This paper starts with a brief description of the introduction of the
likelihood approach in econometrics as presented in Cowles Foundation
Monographs 10 and 14. A sketch is given of the criticisms on this
approach mainly from the first group of Bayesian econometricians.
Publication and citation patterns of Bayesian econometric papers are
analyzed in ten major econometric journals from the late 1970s until the
first few months of 2014. Results indicate a cluster of journals with
theoretical and applied papers, mainly consisting of Journal of Econometrics, Journal of Business and Economic Statistics and Journal of Applied Econometrics
which contains the large majority of high quality Bayesian econometric
papers. A second cluster of theoretical journals, mainly consisting of Econometrica and Review of Economic Studies
contains few Bayesian econometric papers. The scientific impact,
however, of these few papers on Bayesian econometric research is
substantial. Special issues from the journals Econometric Reviews, Journal of Econometrics and Econometric Theory received wide attention. Marketing Science shows an ever increasing number of Bayesian papers since the middle nineties. The International Economic Review and the Review of Economics and Statistics
show a moderate time varying increase. An upward movement in
publication patterns in most journals occurs in the early 1990s due to
the effect of the 'Computational Revolution'. …
Fonte: On the Rise of Bayesian Econometrics after Cowles Foundation Monographs 10, 14
- Author(s)
- Nalan Basturk, Erasmus University Rotterdam; Cem Cakmakli, Koc University, Turkey; S. Pinar Ceyhan, Erasmus University Rotterdam; and Herman K. van Dijk, Erasmus University Rotterdam, the Netherlands
- Keywords:
- History, Bayesian Econometrics
- JEL codes:
- B04, C01
16 junho 2014
Não conhecemos a causa de inflação ou recessões
Fusion power, they say, is 30 years away…and always will be. Scientists figured out long ago that duplicating the power of the sun would provide us with almost limitless energy. But again and again, we’ve thrown our best brains at the problem and they’ve bounced off it like ping-pong balls.
Macroeconomics is a little like fusion power. When the Great Depression hit, economists finally started taking booms and busts seriously. There’s no denying that something weird happens when a country slips into recession -- all the same factories and offices and people and ideas are there, but suddenly people aren’t producing as much stuff. Why? John Maynard Keynes, Friedrich Hayek and Irving Fisher wrestled with this question in the 1930s, and their work kicked off a decades-long quest to understand what we now call the business cycle. But almost a century later, despite sending some of our best brains up against the problem, we’ve made frustratingly little progress.
It’s hard to overstate how few solid conclusions have emerged out of a century of macroeconomic research. We don’t even have a good grasp of what causes recessions. Robert Lucas, probably the most influential macroeconomist since Keynes, had this to say in 2012:
I was [initially] convinced…that all depressions are mainly monetary in origin…I now believe that the evidence on post-war recessions (up to but not including the one we are now in) overwhelmingly supports the dominant importance of real shocks. But I remain convinced of the importance of financial shocks in the 1930s and the years after 2008. Of course, this means I have to renounce the view that business cycles are all alike!
Lucas’ progression roughly reflects the shifting fads in academia. In the 1970s, people mostly thought that recessions were caused by tight monetary policy. After the big inflation in the '80s, people built models in which recessions happen because fewer new technologies got discovered in a given year. But that didn’t seem to explain the recessions induced by Federal Reserve Chairman Paul Volcker in the early 1980s, so new models were developed that attributed recessions, again, to tight monetary policy. After the financial crisis of 2008 and the deep recession that followed, macroeconomists shifted gears and started building models in which financial crises cause economic busts. The consensus shifts every time something big happens.
Other top macroeconomists put the problem even more starkly. Harvard’s Greg Mankiw said this in 2011:
After more than a quarter-century as a professional economist, I have a confession to make: There is a lot I don’t know about the economy. Indeed, the area of economics where I have devoted most of my energy and attention — the ups and downs of the business cycle — is where I find myself most often confronting important questions without obvious answers...
And in that same year, the University of Chicago’s John Cochranewrote:
Why are we stagnating? I don’t know. I don’t think anyone knows, really...Nothing on the conventional macro policy agenda reflects a clue why we’re stagnating...
We also don’t understand what causes inflation. It makes sense that printing more money would cause prices to rise, but trillions of dollars of quantitative easing -- a policy dreamed up by Milton Friedman as a way to fight stagnation -- haven’t budged the inflation rate from its low level of about 2 percent. That has led a small but growing number of macroeconomists, including Stephen Williamson of Washington University, to suggest that quantitative easing, or long periods of low interest rates, actually reduce inflation. At a recent Hoover Institute conference, Cochrane declared that inflation is actually the result, not of loose monetary policy, but of government borrowing (this is actually an old idea as well).
On the topic of what to do about recessions, opinion also is split. The dominant school of thought among macroeconomists (the “New Keynesians” and “monetarists”) says that fighting recessions is the Fed’s job -- lowering interest rates, or QE, or nominal gross domestic product targeting can get the job done. A branch of this school thinks that monetary policy loses its punch when interest rates are low, and recommends fiscal stimulus spending to fill the gap. A slightly smaller group (the “New Classicals”) think that nothing can be done -- we just need to wait it out, and in the meantime try to cut taxes and implement other structural reforms. The debate rages on. But this argument is a little like medieval doctors arguing over leeches versus bleeding -- without a real understanding of what causes recessions, our medicines are largely a shot in the dark.
Why is macroeconomics one of the great unsolved problems in the history of human science? It isn't because macroeconomists aren’t smart enough, as anyone who has hung around them knows. It’s also not because they’re too politicized; you can find macroeconomists on every end of the spectrum. Nor is it for lack of resources being thrown at the question.
The problem is data. Business cycles are few and far between. And business cycles that look similar to one another -- the Great Depression and the Great Recession, for example -- are even farther apart. It’s hard to tell whether policies have any effect, or whether those effects were about to happen anyway. The main statistical technique we have to analyze macro data -- time-series econometrics -- is notoriously inconclusive and unreliable, especially with so few data points. Comparing across countries helps a bit, but countries are all very different, and recessions can also spill over from one to another.
The uncomfortable truth is this: The reason we don’t really know why recessions happen, or how to fight them, is that we don’t have the tools to study them properly. This is the situation biologists were in when they were trying to fight disease before they had microscopes. Not only did they not have the right tools, they didn’t even have any way of knowing what the right tools would be!
So I can’t tell you when macroeconomics will have a real breakthrough. Will we be able to get insight from simulated economies (called agent-based models)? Will huge multiplayer online video games give us a laboratory to study recessions? Should we look at cities as economies, and gain some insight there? Or is there some other data-gathering method so different from what we do now that I can’t even imagine it?
It’s easy to point and laugh and say that macroeconomics isn’t a science. It’s also easy to convince yourself that if macroeconomists just ditched their blinkered political ideologies, all would become clear. But those are comforting fantasies. The fact is, there are just some big problems that mankind doesn’t know how to solve yet.
Fonte: aqui
24 janeiro 2014
Entrevista com Lars Peter Hansen
Lars Peter Hansen, an economist at the University of Chicago, is one of three winners of this year’s Nobel Memorial Prize in Economic Science, along with Eugene F. Fama, a fellow professor at the University of Chicago, and Robert J. Shiller, a professor at Yale.
The Nobel committee cited all of them for contributing to the study of asset prices. But each person’s work is very different.
Professor Fama is known as the father of the “efficient-markets hypothesis,” while Professor Shiller, a frequent contributor to the Economic View column in Sunday Business, is a founder of the field of behavioral finance and is a critic of aspects of Professor Fama’s theory. I interviewed both of them last month, and Professor Shiller has also expressed his views in a column.
Professor Hansen, on the other hand, has received less attention from the news media, and he has stayed clear of the debate over efficient markets and irrational behavior. He has been recognized for creating advanced techniques in econometrics, enabling researchers in many fields of social science to create better mathematical models.
Continua aqui
13 maio 2013
O Samba do Bacen
Por Alex Ribeiro | De Brasília
Quando o sistema de metas de inflação foi adotado, há mais de uma década, o Banco Central abriu um concurso público para selecionar um time de economistas de primeira linha para o seu recém-criado departamento de pesquisas econômicas. Foi um grande fiasco: das 30 vagas em disputa, apenas uma foi preenchida. Todos os demais candidatos foram reprovados.
De lá para cá, outros concursos tiveram mais êxito em atrair talentos, e muitos dos funcionários da casa cursaram pós-graduação em centros de excelência. Assim, o Departamento de Pesquisa Econômica (Depep), o cérebro do Banco Central, firmou-se como uma referência na produção de conhecimento sobre política monetária, finanças e economia bancária no Brasil.
Um dos marcos é o desenvolvimento de um modelo de projeção econômica de última geração, batizado como Samba, que usa técnicas da chamada "economia artificial" e que coloca o Banco Central do Brasil no primeiro pelotão entre países emergentes.
"Nos primeiros anos do regime de meta de inflação, os modelos eram bem básicos", afirma o professor Fábio Kanczuk, da Universidade de São Paulo (USP), especialista em estudo de política monetária com formação em economia pela Universidade da Califórnia, em Los Angeles, e por Harvard. "Com o Samba, o Depep deu um salto. Não deve nada aos seus pares."
Nesses anos, o Depep subiu ao poder no Banco Central. Seu primeiro chefe, o economista Alexandre Tombini, é hoje o presidente da instituição. De seub s quadros também saiu o diretor de política econômica, Carlos Hamilton de Araújo, doutor pela Escola de Pós-Graduação em Economia (EPGE) da Fundação Getulio Vargas (FGV). Pela primeira vez, houve o reconhecimento de que um funcionário do próprio Banco Central estava preparado para assumir a cadeira central na gestão do regime de metas de inflação, depois de uma linhagem de economistas vindos de fora que inclui Sérgio Werlang (Princeton), Ilan Goldfajn (MIT), Afonso Bevilaqua (Berkeley) e Mário Mesquita (Oxford).
O Depep ganhou o reconhecimento até de um dos maiores críticos da abordagem excessivamente científica da economia - o ex-ministro da Fazenda, do Planejamento e da Agricultura Antonio Delfim Netto. "Nem nossos mais sofisticados economistas [do mercado] ou da academia podem competir com as informações armazenadas nas cabeças dos profissionais que habitam o Departamento de Estudos e Pesquisa (Depep) do Banco Central", escreveu Delfim, em artigo recente no Valor.
Neste exato momento, as projeções de inflação produzidas pelo Banco Central estão no centro das discussões sobre a alta dos juros básicos. De um lado está o Depep e, de outro, os economistas do mercado financeiro. O pelotão de elite entre os analistas do setor privado, os chamados "Top 5", formados pelos cinco departamentos econômicos que mais acertam suas projeções para a variação de preços, prevê para 2014, ano que está no radar da política monetária, uma inflação de 6%. Já as estimativas do Depep indicam uma inflação de 5,1%.
Se os economistas do mercado financeiro estiverem certos, o processo de alta de juros iniciado pelo Banco Central em abril, com aumento de 0,25 ponto percentual, de 7,25% para 7,5% ao ano, terá que ter uma dose mais forte para fazer a inflação convergir para o centro da meta anual, de 4,5%. Se o Depep estiver correto, ainda assim será preciso seguir com a alta de juros, mas com uma dose menos intensa.
O Banco Central guarda a sete chaves os seus modelos econômicos. O Samba é apenas uma das várias famílias desenvolvidas internamente para ajudar nas decisões de política monetária. Esses modelos ficam armazenados num computador desconectado da internet, para evitar a ação de piratas, dentro de uma sala à qual, para ter acesso, é necessário ao mesmo tempo um crachá restrito e uma senha.
O que se tem conhecimento desses modelos foi apresentado em seminários, textos acadêmicos e publicado em relatórios trimestrais de inflação. Neles, estão descritas apenas as linhas gerais do modelo e sua mecânica básica. São mantidos sob reserva os parâmetros numéricos que decifram como a economia e, sobretudo, a inflação reagem a diferentes situações, como uma alta no preço de petróleo, um aumento na gastança do governo ou uma elevação de juros.
O banco central da Inglaterra batizou seu primeiro modelo com a sigla BEQM, numa homenagem ao jogador de futebol David Beckham
Dos vários modelos, a menina dos olhos é o Samba, sigla em inglês que, com seu molejo brasileiro, tem um significado quase impenetrável: "Modelo Analítico Estocástico com uma Abordagem Bayesiana". O que os economistas do Banco Central fizeram foi, basicamente, tropicalizar um tipo de modelo que se tornou bastante popular entre bancos centrais, o chamado DSGE, outra sigla que, traduzida do inglês, é apenas para iniciados: "Modelo Dinâmico Estocástico de Equilíbrio Geral".
Chefe-adjunto do Depep, o economista Nelson Ferreira Souza Sobrinho, 39 anos, é um dos pesquisadores que trabalharam no projeto Samba. Ele foi aprovado duas vezes em concursos do Banco Central. Na primeira, em 2002, abriu mão do cargo para embarcar num doutorado na Universidade da Califórnia, em Los Angeles.
De volta ao Brasil, passou num outro concurso e, dessa vez, assumiu. "O nome Samba surgiu de uma votação entre os pesquisadores", relata. "A ideia era ter uma palavra bem brasileira que tivesse relação com o modelo."
O banco central da Inglaterra batizou seu primeiro modelo com a sigla BEQM, numa homenagem ao jogador de futebol David Beckham. Na Colômbia, é o Patacon, uma referência a um tipo de tortilha de bananas verdes fritas muito popular no país. O Canadá criou o ToTEM, numa alusão àquela escultura indígena de madeira encontrada no norte do continente. A Nova Zelândia colocou uma fruta local, o Kiwi, dentro da sigla de seu modelo.
Os modelos DSGE são uma resposta à chamada crítica de Lucas, feita pelo economista americano Robert Lucas em 1976. Seu alvo foram os velhos modelões macroecômicos muito populares entre os banqueiros centrais nas décadas de 1970 e 1980. Um dos principais alvos da crítica foi a "curva de Phillips", muito usada na época, segundo a qual a inflação e o desemprego variam em sentidos opostos.
Sobretudo, essas ferramentas, conhecidas como "modelos da tradição de St. Louis", assumem a hipótese de que os agentes econômicos, como firmas e indivíduos, iriam reagir sempre da mesma forma a qualquer cenário econômico. Ou seja, o que aconteceu no passado seria uma boa matéria-prima para prever o que vai acontecer no futuro.
Lucas argumentou que, na prática, as coisas não funcionam bem assim. As pessoas e empresas tendem a reagir de forma diferente diante de situações novas. Um ingrediente essencial é a expectativa sobre as intenções do Banco Central no manejo dos juros e do governo na política fiscal.
Os modelos DSGE contornam a crítica feita por Lucas. Neles, há agentes inteligentes, incluindo empresas, famílias e governo, que dão respostas diferentes a cada situação nova. São agentes simplificados, uma caricatura, que vivem apenas dentro do computador, agem de acordo com a teoria microeconômica e não têm a pretensão da complexidade dos agentes de carne e osso. Uma das premissas é que todos os agentes são racionais. Daí alguns chamarem esses modelos de "economia artificial", embora os modelões de St. Louis também tenham um quê de reproduzir em laboratório o que acontece no mundo econômico real.
O grupo do Banco Central, coordenado pelo economista André Minella, Ph.D pela New York University, hoje secretário-adjunto de Política Econômica no Ministério da Fazenda, levou cerca de cinco anos para desenvolver o Samba. O primeiro passo foi olhar o que já havia sido feito por aí, com uma pesquisa da literatura econômica, visitas a bancos centrais que já estavam em estágios mais avançados na nova tecnologia e convite a especialistas estrangeiros para virem ao Brasil.
No mundo dos modelos DSGE, a grande referência é um trabalho feito para a zona do euro pelos economistas Frank Smets, do Banco Central Europeu (BCE), e Raf Wouters, do Banco da Bélgica. Economistas do Depep foram assistir a apresentações de Smets e Wouters em congressos no exterior. Um dos colaboradores muito próximos da dupla, Kai Christoffel, do departamento de pesquisa em política monetária do BCE, participou de um seminário de metas de inflação promovido pelo Banco Central.
O trabalho de tropicalização do DSGE consistiu basicamente em colocar no modelo alguns traços bem característicos do Brasil. Um deles são as metas de superávit primário. Outro são os indivíduos que não têm acesso ao sistema financeiro e, por isso, não podem tomar empréstimos para suavizar os ciclos de consumo de suas vidas. O Brasil também tem a peculiaridade de importar muitos bens intermediários, que são insumos para a produção da indústria nacional, e relativamente poucos bens finais.
Na equipe do Samba, todos são pós-graduados em economia, como Solange Gouvea - única mulher entre os autores -, que tem um Ph.D pela Universidade da Califórnia, Santa Cruz. Mas a base em engenharia de alguns dos pesquisadores ajudou bastante na computação avançada.
Uma coisa é escrever as relações econômicas que formam a espinha dorsal do modelo, algo que economistas fazem com conforto. Outra coisa bem diferente é passar essas equações matemáticas cabeludas para o computador encontrar respostas. Marcos de Castro, um dos autores, é engenheiro mecatrônico de formação, e Rafael dos Santos, engenheiro civil.
O DSGE exige certa capacidade de computação para ser rodado, ao contrário dos velhos modelões macroeconômicos, que cabem numa planilha normal de Excel. A área de informática do Banco Central cedeu para o Depep um pedaço de seus computadores centrais, com mais memória e velocidade, para fazer o serviço. O computador levava de semanas a meses tateando os dados até encontrar os valores mais prováveis para a economia brasileira.
O gaúcho Ângelo Marsiglia Fasolo, 35 anos, entrou no Banco Central por concurso há uma década e hoje é consultor do Depep. Quando a equipe do Samba começava a ser formada, em 2006, ele obteve uma licença remunerada do Banco Central para fazer doutorado na Duke University, nos Estados Unidos. De volta ao Brasil, foi convidado por Minella para fazer a revisão final do modelo Samba.
"O DSGE não é um monstro. Já é uma técnica bem comum na academia", relata. "No primeiro dia de aula do meu Ph.D, o professor avisou logo que teríamos que dominar os modelos DSGE para concluir o doutorado."
A publicação final do Samba ocorreu em abril de 2011, mas ele viria a ser realmente conhecido além dos ciclos acadêmicos mais restritos apenas em setembro de 2011, quando o Comitê de Política Monetária (Copom) citou o novo modelo em uma de suas atas para justificar uma inesperada mudança na direção da política monetária, de aperto para relaxamento.
O BC guarda a sete chaves os seus modelos econômicos. O Samba é apenas um dos desenvolvidos internamente para ajudar nas decisões
O Samba, na ocasião, apontava que a deterioração no ambiente internacional que se avizinhava teria impacto no Brasil equivalente a um terço da crise da quebra do banco Lehman Brothers, de 2008, ajudando a conter a alta de preços na economia. Para alguns, o Copom usou o modelo Samba de forma oportunista para dar sustentação teórica a um desejo de baixar os juros. Para outros, foi a prova da genialidade do modelo, que anteviu o que então estava fora dos cálculos dos analistas econômicos.
O Banco Central não deixa claro o peso do Samba nas suas projeções atuais. O que se sabe é que os modelos antigos não foram completamente abandonados. "É como aquele Chevette velho, cheio de defeitos, mas que você conhece as manias, sabe ajustar direitinho o motor e está bem treinado para dirigir de um lado para o outro", afirma Kanczuk, da USP.
Bons modelos são essenciais em regimes de metas de inflação - um universo em que, basicamente, o Banco Central gera projeções de inflação e, se elas são diferentes da meta, os juros sobem ou descem para fazer a alta de preços na economia chegar ao nível desejado. Um dos principais teóricos dos regimes de metas de inflação, o sueco Lars Svensson, professor em Princeton, gosta de se referir ao sistema como "regime de projeções de inflação".
Muitos economistas culparam os modelos pela crise de 2008. Exatos, eles transmitiam a impressão de que eram infalíveis. Na prática, porém, o processo não é tão mecânico assim. São homens, e não computadores, que tomam as decisões, julgando as projeções feitas pelos modelos. "É preciso, em primeiro lugar, conhecer as limitações dos modelos", afirma Souza Sobrinho. "Eles são muito úteis, porque são assentados na teoria econômica e servem para disciplinar as discussões. Evitam ficar apenas no blá-blá-blá."
A primeira equipe do Depep, chefiada por Tombini, um Ph.D pela Universidade de Illinois, Urbana Champaign, foi formada com a reunião de 17 economistas do próprio Banco Central que estavam dispersos por diversos departamentos da instituição. "Houve um interesse muito grande para entrar no Depep", afirma Benjamin Tabak, 43 anos, um doutor em economia pela Universidade de Brasília (UnB) que se juntou ao Depep nas primeiras horas e, desde então, tornou-se um dos mais produtivos da equipe. Ele é autor ou coautor de 55 trabalhos para discussão publicados pelo Banco Central, num universo de 305.
Para o departamento ganhar corpo, em 2001 o Banco Central publicou um ambicioso edital de concurso público para contratar 30 pesquisadores em economia e finanças. A prova eliminatória tinha apenas questões de inglês, língua corrente na produção acadêmica em economia, mas não de português. Na prova classificatória de títulos, a pontuação máxima era dada a quem tivesse feito doutorado em cinco dezenas de universidades basicamente dos Estados Unidos e do Reino Unido ou num conjunto bem restrito de universidades brasileiras. Foi aprovado apenas um candidato, Pedro Calhman de Miranda, que hoje integra a assessoria econômica de Tombini.
Bancos centrais de países como Inglaterra, Espanha e Estados Unidos estão livres das amarras de concursos públicos e disputam doutores recém-formados com universidades e bancos em ambientes como o congresso da Associação Americana de Economistas, onde ocorre uma feira paralela de jovens talentos.
"O Banco Central tem atraído um bom capital humano. Muita gente boa disputa os concursos, até porque os salários estão mais altos recentemente", afirma o professor Carlos Viana de Carvalho, da PUC-Rio, um Ph.D pela Universidade de Princeton que trabalhou na área de pesquisa econômica do Federal Reserve (Fed) de Nova York. O salário de ingresso do BC é de R$ 15,7 mil mensais, e pesquisadores mais experientes, como os que participaram do desenvolvimento do modelo Samba, têm ganhos da ordem de R$ 22 mil. "Mas outros bancos centrais competem pelos melhores talentos do mundo", afirma Carvalho.
Atualmente, o Depep tem 50 pesquisadores, dos quais 39 são doutores e 11 têm mestrado. Entre os doutores, 9 são Ph.D. Boa parte foi formada dentro de um programa de incentivo ao estudo do Banco Central. Hoje, são selecionados até 40 funcionários para fazer mestrado ou doutorado nas melhores universidades do Brasil e do exterior, recebendo o salário normalmente.
O trabalho de tropicalização do modelo consistiu em introduzir alguns traços bem característicos da realidade do Brasil
A contrapartida é que o funcionário termine a pós-graduação e que permaneça no BC pelo mesmo período que ficou de licença. Um dos beneficiários do programa é o atual chefe do Depep, Eduardo José Araújo Lima, engenheiro agrônomo de 46 anos que fez mestrado e doutorado na Universidade de Brasília (UnB). "O investimento em pessoas foi grande. Não só o Depep, mas o Banco Central como um todo evoluiu com isso."
Outras áreas do Banco Central têm ganhado projeção em pesquisas sobre temas como meios de pagamentos, operações bancárias, política monetária e administração das reservas internacionais. O Departamento Econômico (Depec), responsável por divulgar estatísticas, como o balanço de pagamentos, desenvolveu um indicador de atividade econômica de ponta. O IBC-Br mostra antes, com quase perfeição, o que vai aparecer meses depois no Produto Interno Bruto (PIB) divulgado pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Não está livre de erros, como qualquer indicador antecendente, mas sua acurácia fez com que ficasse conhecido como o "PIB do BC".
Embora o Depep esteja definitivamente no centro do debate econômico brasileiro, sua importância no cenário internacional é menos relevante. Um sinal de prestígio dentro do país é que, na edição mais recente do encontro da Associação Nacional dos Centros de Pós-Graduação em Economia (Anpec), em 2012, foram apresentados oito trabalhos de pesquisadores do Banco Central.
Já no encontro anual de 2012 da Society for Economic Dynamics, apontado como a mais prestigiada reunião mundial de acadêmicos em economia, não havia nenhum representante do Banco Central do Brasil. É muito mais difícil para um pesquisador brasileiro entrar nesses encontros do que, digamos, um americano ou europeu, já que a seleção desses eventos privilegia temas de interesse de economias desenvolvidas. Ainda assim, em 2012 havia um pesquisador do Banco Central do Chile e trabalhos de pesquisadores vinculados a universidades brasileiras, como a USP, a Fundação Getulio Vargas (FGV) do Rio e de São Paulo e a PUC-Rio.
Outro critério muito usado para medir a qualidade da pesquisa são publicações em revistas especializadas de economia. Desde que o Depep foi criado, 45 de seus trabalhos de discussão foram reproduzidos em publicações acadêmicas classificadas pela Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), no ranking Qualis. Por esse critério, dois trabalhos com participação de pesquisadores do Banco Central foram publicados em duas das revistas de economia mais importantes do mundo, o "Journal of Econometrics" e a "Economic Theory". Outros 11 trabalhos para discussão saíram em revistas acadêmicas classificadas no segundo melhor grupo entre as publicações econômicas e financeiras.
Os textos para discussão do BC vão muito além da pura elucubração acadêmica. Seu forte é a economia aplicada. Entre as publicações mais recentes, há uma linha de estudos para compreender a política econômica depois da grande crise da quebra do Lehman Brothers. Um deles é um trabalho sobre a eficácia das compras de dólares em mercado pelo Banco Central para suavizar a apreciação do real, num ambiente de ampla liquidez criada pela impressão de moeda nas economias desenvolvidas. Outro é a investigação do papel dos depósitos compulsórios como instrumento tanto para garantir a estabilidade financeira quanto para auxiliar no controle da inflação.
Carvalho, professor da PUC-Rio, lembra que, mundo afora, sobretudo nas universidades, há incentivos financeiros para quem publica. "No Fed de Nova York, os pesquisadores dedicam parte do tempo a gerar bons conselhos para quem toma decisões de política econômica, mas parte do tempo é livre para fazer a pesquisa que quiserem", afirma. "O Fed se beneficia quando seus pesquisadores estão na fronteira do conhecimento."
No Banco Central do Brasil, a pesquisa acadêmica é, muitas vezes, uma atividade das horas vagas. Um outro chefe-adjunto do Depep, Aquiles Rocha de Farias, 40 anos, doutor pela UnB, dedica o tempo em que está no Banco Central a demandas da própria instituição. "Alguém tem que preparar a ata do Copom e o relatório de inflação", afirma. "Pesquisa, eu faço em casa, de noite."
Uma outra forma de checar a qualidade do Depep são as suas projeções de inflação apresentadas no relatório trimestral de inflação. Os números, porém, não são bons. De junho de 2004 para cá, em média as projeções do relatório de inflação para os 12 meses seguintes é 0,58 ponto percentual menor que a inflação média de fato ocorrida. É um desempenho menos favorável do que a dos economistas do mercado financeiro, que subestimam em 0,46 ponto percentual a inflação efetivamente ocorrida.
Uma ponderação importante é que as previsões apresentadas no relatório trimestral de inflação não são exatamente projeções. Uma das camisas de força é que, no chamado cenário de mercado, elas consideram a trajetória de câmbio e juros esperada pelos analistas privados.
Se o Depep usasse a trajetória que considera mais provável para essa variáveis, talvez os resultados fossem diferentes. Um outro argumento em defesa dos economistas do Banco Central é que as premissas e os cenários econômicos que alimentam os modelos rodados pelo Depep são traçados pelos membros do Copom, e não necesariamente pelo Depep.
Apesar de toda a evolução qualitativa desde 1999, o Depep segue como um departamento econômico menos independente do que alguns de seus similares, sobretudo de países desenvolvidos. Nas reuniões do comitê de política monetária do Fed, por exemplo, os técnicos da casa, que têm um compromisso de longo prazo com a instituição, apresentam projeções independentes. Membros do comitê que tiverem visão diferente estão livres para apresentar suas próprias projeções.
"Uma coisa curiosa é que, no passado, quando o Depep não tinha a qualidade técnica de hoje, ele parecia ter um peso muito maior nas decisões do Copom", afirma Kanczuk. "Agora, quando o departamento ficou muito melhor, seu peso nas decisões parece bem menor."
Leia mais em:
http://www.valor.com.br/cultura/3117896/o-samba-dos-juros#ixzz2SvXgsyms
28 março 2013
Dados em Painel
A utilização de modelos que envolvam dados longitudinais em contabilidade e finanças tem sido recorrente. No entanto verifica-se uma falta de cuidado quanto aos critérios para a adoção de um modelo em detrimento de outro, bem como a ausência de uma discussão mais detalhada sobre os possíveis estimadores a serem estudados em cada situação. Este artigo tem por objetivo apresentar, de forma conceitual e aplicada, os principais estimadores de dados em painel que podem ser utilizados nessas áreas do conhecimento, bem como auxiliar na definição do modelo mais consistente a ser adotado, em função das características dos dados. Para um painel curto, são discutidos os modelos POLS com erros-padrão robustos clusterizados, com estimador between, efeitos fixos, efeitos fixos com erros-padrão robustos clusterizados, efeitos aleatórios e efeitos aleatórios com erros-padrão robustos clusterizados. Já para um painel longo, são discutidos os modelos com efeitos fixos, efeitos aleatórios, efeitos fixos com termos de erro AR(1), efeitos aleatórios com termos de erro AR(1), POLS com erros AR(1) e Pooled FGLS com erros AR(1). Este artigo também tem por propósito aplicar tais modelos em um caso real, com base nos dados da Compustat Global. Ao final, são apresentadas as principais rotinas para a aplicação de cada um dos modelos em Stata.
FÁVERO, L. P. L. Dados em painel em contabilidade e finanças: teoria e aplicação. BBR, v. 10, n. 1, 2013.
FÁVERO, L. P. L. Dados em painel em contabilidade e finanças: teoria e aplicação. BBR, v. 10, n. 1, 2013.
13 março 2013
A Econometria do Conclave
Nunca imaginei que tivessem pesquisas de econometria sobre o conclave. Econometria pressupõe dados, mas há dados sobre a escolha do Papa? Via de regra não deveria haver, já que o sigilo total dos votos é determinação do Vaticano. Espera um pouco, a menos que os dados vazem…
Sim, foi exatamente isso que aconteceu. Encontrei uma excelente pesquisa do econometrista J.T. Toman (via David Gibson) que a partir de “transbordamentos de informação” analisou os padrões de voto de sete conclaves. Alguns resultados interessantes foram encontrados.
Primeiro dos fatos: ao longo de cada conclave os cardeais agem cada vez mais estrategicamente. O autor do artigo classifica os cardeais eleitores em dois tipos: os sincere voters que votam num mesmo candidato rodada a rodada independente da probabilidade de sucesso; e os strategic voters que mudam o voto a luz dos acontecimentos.
[...] De modo análogo há um aumento rodada a rodada de votantes estratégicos. Podemos cogitar várias razões para isso, transmitir coesão dentro da Igreja aos fiéis pode ser um dos motivos em não se estender muito a decisão do conclave.
Segundo, foi constatado que parte desse aumento dos votantes estratégicos comportam-se em efeito de manada com o decorrer das rodadas. Isto é, votos convergem para cardeais que receberam mais votos durante a votação anterior e, especialmente, sobre aqueles cujo número de votos é crescente.
Terceiro, um efeito negativo bastante peculiar de “conversas noturnas” foi identificado. O número de votos do cardeal líder cai consideravelmente na manhã seguinte à última votação. Uma explicação razoável para isso é que as conversas noturnas permitem que os cardeais combinem e dificultem a eleição do cardeal que vinha liderando.
Por fim, há de se considerar que nem todo cardeal é na prática elegível, muitos por serem desconhecidos têm chances mínimas. Isto impõe o problema da heterogeneidade (comum na economia em modelos cujos agentes não são idênticos). Tucker notou que lá pelas tantas do artigo o autor da pesquisa procura entender a existência da heterogeneidade usando um curioso mix de econometria e religião:
Por Adriano Teixeira - Prosa Econômica
Sim, foi exatamente isso que aconteceu. Encontrei uma excelente pesquisa do econometrista J.T. Toman (via David Gibson) que a partir de “transbordamentos de informação” analisou os padrões de voto de sete conclaves. Alguns resultados interessantes foram encontrados.
Primeiro dos fatos: ao longo de cada conclave os cardeais agem cada vez mais estrategicamente. O autor do artigo classifica os cardeais eleitores em dois tipos: os sincere voters que votam num mesmo candidato rodada a rodada independente da probabilidade de sucesso; e os strategic voters que mudam o voto a luz dos acontecimentos.
[...] De modo análogo há um aumento rodada a rodada de votantes estratégicos. Podemos cogitar várias razões para isso, transmitir coesão dentro da Igreja aos fiéis pode ser um dos motivos em não se estender muito a decisão do conclave.
Segundo, foi constatado que parte desse aumento dos votantes estratégicos comportam-se em efeito de manada com o decorrer das rodadas. Isto é, votos convergem para cardeais que receberam mais votos durante a votação anterior e, especialmente, sobre aqueles cujo número de votos é crescente.
Terceiro, um efeito negativo bastante peculiar de “conversas noturnas” foi identificado. O número de votos do cardeal líder cai consideravelmente na manhã seguinte à última votação. Uma explicação razoável para isso é que as conversas noturnas permitem que os cardeais combinem e dificultem a eleição do cardeal que vinha liderando.
Por fim, há de se considerar que nem todo cardeal é na prática elegível, muitos por serem desconhecidos têm chances mínimas. Isto impõe o problema da heterogeneidade (comum na economia em modelos cujos agentes não são idênticos). Tucker notou que lá pelas tantas do artigo o autor da pesquisa procura entender a existência da heterogeneidade usando um curioso mix de econometria e religião:
Finally, as is seen by the uneven voting activity among the cardinals, there is unobservable heterogeneity among the cardinals that is constant across time. Only a select subset are considered serious contenders for the position of the Papacy. One interpretation is that this is the Word of God. The voters do not perceive the cardinals as equal candidates. More cynically, one might argue that the differences observed are the result of the pre-conclave maneuverings. However, why would the effects of these be constant over time? We could expect these effect to die off after the observations of the first vote count. However, as God is omnipresent and all-knowing, having His effect to be constant over time is less of a surprise. Either way, this unobservable heterogeneity is accounted for in the estimation process through the inclusion of fixed effects parameters.
Por Adriano Teixeira - Prosa Econômica
25 fevereiro 2013
Avaliação Econômica de Projetos Sociais
Ainda não li o livro abaixo, mas a presença de Ricardo Paes de Barros sinaliza a excelência da pesquisa.
Autor: Betânia Peixoto, Cristine C. de Xavier Pinto, Lycia Lima, Miguel Nathan Foguel, Ricardo Paes de Barros. Organizador: Naércio Menezes Filho.Data: 2012-10-22
A Avaliação Econômica de Projetos Sociais tratada por alguns dos maiores especialistas sobre o tema no país. O livro estimula a realização de avaliações de impacto, para que possamos conhecer e replicar os projetos sociais e políticas públicas com maior retorno econômico, de forma a gerar o máximo de valor para a sociedade.
O livro pode ser baixado gratuitamente aqui.
26 novembro 2011
Basileia II
O acordo de Basileia II no Brasil vai permitir que os bancos utilizem modelos internos, na abordagem IRB avançada, que sirvam de base para o cálculo dos requisitos mínimos de capital em função do nível de exposição ao risco de crédito. Dentre os principais componentes estimados estão a probabilidade de descumprimento (PD – probability of default), a perda dado o descumprimento (LGD – loss given default) e a exposição no descumprimento (EAD – exposure at default). Este trabalho tem como objetivo investigar mecanismos de estimação de LGD utilizando modelos de regressão. Considerando que o mercado brasileiro ainda se encontra em um estágio incipiente na análise de LGD e a disponibilidade de dados de taxas de recuperação é restrita, foram simulados portfólios de crédito através de técnicas de Monte Carlo. A dependência entre LGD e as variáveis explicativas das percentagens de perdas em caso de inadimplência é modelada através de cópulas gaussianas e de matrizes bi-estocásticas. Os resultados sugerem que a análise de regressão multivariada, usando diversas funções de transformação, possibilita identificar adequadamente as variáveis que explicam LGD.
A concessão de crédito é requisito essencial para o desenvolvimento de um país. Nos últimos anos, a oferta de crédito no Brasil tem aumentado de maneira significativa, influenciada por diversos fatores importantes, como a queda nas taxas de juros, o aumento do prazo médio das operações e a estabilidade econômica.
Segundo dados do Banco Central do Brasil (Bacen), o estoque total de empréstimos bancários no sistema financeiro em relação ao PIB passou de 31,6% em 2007 para 47,2% em 2010. Essa ampliação de recursos destinados à concessão de crédito causa também o aumento dos riscos e a necessidade de maior controle por parte das instituições financeiras e do regulador do mercado, o Bacen.
O Gráfico 1 mostra a Relação Crédito/PIB no Brasil e em outros países do mundo, em porcentagem, e indica que o Brasil ainda empresta pouco em relação a seu Produto Interno Bruto (PIB), comparando-se com países desenvolvidos como Espanha e Estados Unidos e com países emergentes como o Chile e a Malásia. Se a tendência de aumento do crédito atual for mantida, é possível que o Brasil alcance em alguns anos os níveis dos países com maior volume de financiamentos em relação ao PIB no mundo. Por isso, será cada vez mais importante para os bancos precificarem e gerenciarem o risco de crédito de maneira mais precisa, utilizando sistemas mais sofisticados de gestão. Já o Bacen deve estar apto a exigir requisitos mínimos de capital que consigam refletir o verdadeiro risco das carteiras de crédito dos bancos, seguindo diretrizes traçadas internacionalmente pelo Comitê de Basileia II e adaptando algumas regras para as especificidades do mercado brasileiro.
No Brasil, o Banco Central determinou, em 2004, através do comunicado nº 12.746, o cronograma de implementação de Basileia II, com previsão de encerramento no final de 2011. Em outubro de 2009 ocorreu a última atualização do cronograma, através do comunicado nº 19.028, e a previsão de encerramento do processo de implantação foi alterada para o final do primeiro semestre de 2013. Em fevereiro de 2011, o Bacen publicou o Edital de Audiência Pública nº 37, com as regras que devem fazer parte do documento final de Basileia II no Brasil e que irão reger o sistema bancário nacional.
O presente estudo pretende verificar o comportamento das perdas em carteiras de crédito simuladas com técnicas de Monte Carlo e, além disso, realizar estimativas de LGD utilizando dois diferentes modelos descritos na literatura e comparar os resultados obtidos por cada um deles. Os valores estimados de LGD são utilizados no cálculo do Capital Mínimo Exigido (CME), determinante do capital alocado pela instituição financeira, através dos modelos internos na abordagem IRB avançada. Dada a escassez de dados de perdas em carteiras de empréstimos disponíveis ao público, este estudo utiliza bases de dados simuladas com técnicas de Monte Carlo. Para a criação de dependência entre algumas variáveis explicativas aleatórias, foram utilizadas cópulas gaussianas e, no processo de junção das variáveis com as observações de LGD, foram utilizadas matrizes estocásticas duplas.
No procedimento utilizado, primeiramente os valores de LGD e das variáveis explicativas que compõem as bases de dados do estudo são simulados. Em seguida, essas bases são utilizadas para a realização de estimativas do parâmetro LGD através: (i) do modelo desenvolvido por Hamerle et al. e (ii) do LossCalc, da Moody’s KMV, descrito por Gupton e Stein. Finalmente, os resultados obtidos por cada modelo de estimação de LGD dentro dos portfólios de crédito resultantes das simulações serão comparados.
Este trabalho pode servir como base para as instituições financeiras analisarem e estimarem de forma mais precisa suas perdas de crédito e as eventuais recuperações incorridas em seus portfólios, utilizando a metodologia nele descrita e adaptando as informações e as variáveis do estudo pelos seus dados observados internamente. Além disso, o trabalho pode ser utilizado pelos bancos com poucas observações de perdas na simulação de portfólios de crédito fictícios.
Em resumo, a metodologia se baseia em três etapas principais: (i) desenvolvimento de portfólios de crédito utilizando simulação de Monte Carlo, cada um contendo 10.000 observações de LGD, que são formadas pela junção de duas variáveis com distribuição Beta, uma com assimetria à direita e outra com assimetria à esquerda, e 10.000 observações de quatro variáveis explicativas de clientes inadimplentes, sendo duas delas seguindo uma distribuição Beta, uma com distribuição normal e uma com distribuição de Bernoulli; (ii) realização de estimativas de LGD das carteiras simuladas, utilizando dois modelos descritos na literatura e (iii) comparação dos resultados obtidos com a aplicação dos dois modelos de estimação de LGD.
Mais especificamente, a simulação de dados envolve (i) o uso de cópulas gaussianas para a modelagem de dependência entre as variáveis explicativas associadas à inadimplência e (ii) o confronto entre percentis da variável LGD e das variáveis independentes levando-se em consideração uma matriz bi-estocástica como referência. A estimação do modelo de LGD através dos dados gerados por simulação de Monte Carlo é realizada usando-se regressão linear múltipla.
As cópulas gaussianas são geradas a partir da correlação entre as variáveis explicativas. Dentro do estudo, foram utilizados quatro conjuntos de correlações diferentes na simulação das carteiras de crédito, e verificou-se que não houve impacto significativo nos resultados das regressões dependendo da correlação utilizada.
A simulação de dados é fundamental no desenvolvimento deste trabalho, dadas as dificuldades na obtenção de dados reais de LGD em carteiras de crédito no Brasil. Desta forma, o presente estudo deve resultar em uma ferramenta teórica importante de análise de carteiras para as instituições financeiras, que serão capazes de controlar melhor suas perdas esperadas e inesperadas, seguindo também as diretrizes do acordo de Basileia II e do Bacen. A metodologia desenvolvida pode ser utilizada por instituições financeiras que desejem realizar estimativas de LGD para verificar quais variáveis impactam nas perdas em seus portfólios de crédito.
Depois de simuladas as bases de dados, foram utilizados no estudo dois modelos descritos na literatura, que são apresentados a seguir.
Modelo Logit
Uma vez que a LGD é expressa de forma percentual, variando entre 0 e 1, não é possível realizar estimativas diretamente através de regressão linear. Assim, é necessário seguir um procedimento de transformação do tipo Logit nas observações de LGD da base de dados de desenvolvimento para então realizar estimativas através de regressão linear e obter os coeficientes de cada variável transformada. Em seguida, utilizando os coeficientes obtidos na regressão, são estimados os valores que serão posteriormente transformados em observações de LGD através da função inversa utilizada no início do procedimento.
Nos dados deste trabalho, são realizadas regressões lineares dos parâmetros explicativos que foram simulados contra os valores transformados das observações de LGD, utilizando-se o método dos mínimos quadrados ordinários.
Modelo LossCalc, da Moody’s KMV
O LossCalc é um sistema desenvolvido pela Moody’s KMV que considera a taxa de recuperação no momento da inadimplência como uma variável estocástica independente da PD e igual a 1 – LGD. É utilizado por investidores e instituições financeiras nas estimativas de LGD para eventos de inadimplência ocorridos imediatamente ou que venham a ocorrer dentro de um ano.
Partindo das observações de LGD nas bases de dados simuladas, criadas através da combinação de duas variáveis com distribuição Beta, característica bimodal e que variam entre 0 e 1, é necessário realizar uma transformação Beta para deixar a variável dependente normalmente distribuída e utilizar, assim, uma regressão linear na estimativa dos coeficientes apropriados dos fatores preditivos, tendo como variável dependente o valor transformado de LGD. Depois de estimados os valores de LGD no “espaço normal”, aplica-se a transformada inversa para levar estes valores ao “espaço de LGD”, resultando nas estimativas de LGD para cada exposição de crédito.
Novamente, foi utilizado o método dos mínimos quadrados ordinários na regressão linear dos parâmetros explicativos contra os valores transformados de LGD.
Resultados e comentários finais
Os resultados das regressões lineares indicam que o modelo de Hamerle et al., que utiliza a transformação do tipo Logit, em comparação ao LossCalc, com a transformação Beta, foi o que teve a melhor qualidade no ajuste à linha de regressão, ou o maior valor de R2, em todas as bases de dados simuladas neste estudo, independentemente da correlação utilizada entre as variáveis explicativas. A Figura 1 (Histograma das variáveis simuladas no estudo) apresenta a distribuição das variáveis dependentes e independentes simuladas em uma das bases de dados utilizadas.
Algumas limitações da metodologia de simulação podem ser elencadas, como, por exemplo, o alto ajuste observado dos modelos em relação à reta de regressão, devido ao tipo de construção das bases utilizado. Como sugestão, as combinações entre as variáveis explicativas e LGD poderiam ser feitas por outros métodos em vez da matriz estocástica dupla utilizada. Outra limitação é a não avaliação da acurácia e do desempenho dos modelos de previsão em testes fora-da-amostra e fora-do-tempo, devido à utilização de bases de dados simuladas.
Para a criação de dependência, uma sugestão em trabalhos futuros semelhantes seria a utilização de relações não-lineares entre as variáveis explicativas, ou seja, a criação de cópulas não gaussianas, visto que em dados reais é provável que as relações existentes entre as variáveis não sejam lineares. Outra sugestão seria a utilização da metodologia descrita em bases de dados reais de instituições financeiras com muitas ou poucas operações inadimplentes, para verificar o comportamento de variáveis não simuladas nas estimativas de perdas em portfólios de crédito. Adicionalmente, outras técnicas de estimação podem ser investigadas, em substituição à análise de regressão linear múltipla utilizada no presente estudo.
Finalmente, as instituições financeiras podem utilizar esse trabalho como base metodológica para sua gestão de risco de crédito, visto que ele apresenta importantes ferramentas de simulações de dados e, ao mesmo tempo, propõe modelos que podem ser utilizados na mensuração das perdas em portfólios de crédito. Além disso, os bancos seriam capazes de estimar de forma mais precisa a LGD de suas carteiras, parâmetro essencial no cálculo dos requisitos mínimos de capital, na abordagem IRB avançada, seguindo as diretrizes do acordo de Basileia II e as regras definidas pelo Bacen.
Fonte: Valor
A concessão de crédito é requisito essencial para o desenvolvimento de um país. Nos últimos anos, a oferta de crédito no Brasil tem aumentado de maneira significativa, influenciada por diversos fatores importantes, como a queda nas taxas de juros, o aumento do prazo médio das operações e a estabilidade econômica.
Segundo dados do Banco Central do Brasil (Bacen), o estoque total de empréstimos bancários no sistema financeiro em relação ao PIB passou de 31,6% em 2007 para 47,2% em 2010. Essa ampliação de recursos destinados à concessão de crédito causa também o aumento dos riscos e a necessidade de maior controle por parte das instituições financeiras e do regulador do mercado, o Bacen.
O Gráfico 1 mostra a Relação Crédito/PIB no Brasil e em outros países do mundo, em porcentagem, e indica que o Brasil ainda empresta pouco em relação a seu Produto Interno Bruto (PIB), comparando-se com países desenvolvidos como Espanha e Estados Unidos e com países emergentes como o Chile e a Malásia. Se a tendência de aumento do crédito atual for mantida, é possível que o Brasil alcance em alguns anos os níveis dos países com maior volume de financiamentos em relação ao PIB no mundo. Por isso, será cada vez mais importante para os bancos precificarem e gerenciarem o risco de crédito de maneira mais precisa, utilizando sistemas mais sofisticados de gestão. Já o Bacen deve estar apto a exigir requisitos mínimos de capital que consigam refletir o verdadeiro risco das carteiras de crédito dos bancos, seguindo diretrizes traçadas internacionalmente pelo Comitê de Basileia II e adaptando algumas regras para as especificidades do mercado brasileiro.
No Brasil, o Banco Central determinou, em 2004, através do comunicado nº 12.746, o cronograma de implementação de Basileia II, com previsão de encerramento no final de 2011. Em outubro de 2009 ocorreu a última atualização do cronograma, através do comunicado nº 19.028, e a previsão de encerramento do processo de implantação foi alterada para o final do primeiro semestre de 2013. Em fevereiro de 2011, o Bacen publicou o Edital de Audiência Pública nº 37, com as regras que devem fazer parte do documento final de Basileia II no Brasil e que irão reger o sistema bancário nacional.
O presente estudo pretende verificar o comportamento das perdas em carteiras de crédito simuladas com técnicas de Monte Carlo e, além disso, realizar estimativas de LGD utilizando dois diferentes modelos descritos na literatura e comparar os resultados obtidos por cada um deles. Os valores estimados de LGD são utilizados no cálculo do Capital Mínimo Exigido (CME), determinante do capital alocado pela instituição financeira, através dos modelos internos na abordagem IRB avançada. Dada a escassez de dados de perdas em carteiras de empréstimos disponíveis ao público, este estudo utiliza bases de dados simuladas com técnicas de Monte Carlo. Para a criação de dependência entre algumas variáveis explicativas aleatórias, foram utilizadas cópulas gaussianas e, no processo de junção das variáveis com as observações de LGD, foram utilizadas matrizes estocásticas duplas.
No procedimento utilizado, primeiramente os valores de LGD e das variáveis explicativas que compõem as bases de dados do estudo são simulados. Em seguida, essas bases são utilizadas para a realização de estimativas do parâmetro LGD através: (i) do modelo desenvolvido por Hamerle et al. e (ii) do LossCalc, da Moody’s KMV, descrito por Gupton e Stein. Finalmente, os resultados obtidos por cada modelo de estimação de LGD dentro dos portfólios de crédito resultantes das simulações serão comparados.
Este trabalho pode servir como base para as instituições financeiras analisarem e estimarem de forma mais precisa suas perdas de crédito e as eventuais recuperações incorridas em seus portfólios, utilizando a metodologia nele descrita e adaptando as informações e as variáveis do estudo pelos seus dados observados internamente. Além disso, o trabalho pode ser utilizado pelos bancos com poucas observações de perdas na simulação de portfólios de crédito fictícios.
Em resumo, a metodologia se baseia em três etapas principais: (i) desenvolvimento de portfólios de crédito utilizando simulação de Monte Carlo, cada um contendo 10.000 observações de LGD, que são formadas pela junção de duas variáveis com distribuição Beta, uma com assimetria à direita e outra com assimetria à esquerda, e 10.000 observações de quatro variáveis explicativas de clientes inadimplentes, sendo duas delas seguindo uma distribuição Beta, uma com distribuição normal e uma com distribuição de Bernoulli; (ii) realização de estimativas de LGD das carteiras simuladas, utilizando dois modelos descritos na literatura e (iii) comparação dos resultados obtidos com a aplicação dos dois modelos de estimação de LGD.
Mais especificamente, a simulação de dados envolve (i) o uso de cópulas gaussianas para a modelagem de dependência entre as variáveis explicativas associadas à inadimplência e (ii) o confronto entre percentis da variável LGD e das variáveis independentes levando-se em consideração uma matriz bi-estocástica como referência. A estimação do modelo de LGD através dos dados gerados por simulação de Monte Carlo é realizada usando-se regressão linear múltipla.
As cópulas gaussianas são geradas a partir da correlação entre as variáveis explicativas. Dentro do estudo, foram utilizados quatro conjuntos de correlações diferentes na simulação das carteiras de crédito, e verificou-se que não houve impacto significativo nos resultados das regressões dependendo da correlação utilizada.
A simulação de dados é fundamental no desenvolvimento deste trabalho, dadas as dificuldades na obtenção de dados reais de LGD em carteiras de crédito no Brasil. Desta forma, o presente estudo deve resultar em uma ferramenta teórica importante de análise de carteiras para as instituições financeiras, que serão capazes de controlar melhor suas perdas esperadas e inesperadas, seguindo também as diretrizes do acordo de Basileia II e do Bacen. A metodologia desenvolvida pode ser utilizada por instituições financeiras que desejem realizar estimativas de LGD para verificar quais variáveis impactam nas perdas em seus portfólios de crédito.
Depois de simuladas as bases de dados, foram utilizados no estudo dois modelos descritos na literatura, que são apresentados a seguir.
Modelo Logit
Uma vez que a LGD é expressa de forma percentual, variando entre 0 e 1, não é possível realizar estimativas diretamente através de regressão linear. Assim, é necessário seguir um procedimento de transformação do tipo Logit nas observações de LGD da base de dados de desenvolvimento para então realizar estimativas através de regressão linear e obter os coeficientes de cada variável transformada. Em seguida, utilizando os coeficientes obtidos na regressão, são estimados os valores que serão posteriormente transformados em observações de LGD através da função inversa utilizada no início do procedimento.
Nos dados deste trabalho, são realizadas regressões lineares dos parâmetros explicativos que foram simulados contra os valores transformados das observações de LGD, utilizando-se o método dos mínimos quadrados ordinários.
Modelo LossCalc, da Moody’s KMV
O LossCalc é um sistema desenvolvido pela Moody’s KMV que considera a taxa de recuperação no momento da inadimplência como uma variável estocástica independente da PD e igual a 1 – LGD. É utilizado por investidores e instituições financeiras nas estimativas de LGD para eventos de inadimplência ocorridos imediatamente ou que venham a ocorrer dentro de um ano.
Partindo das observações de LGD nas bases de dados simuladas, criadas através da combinação de duas variáveis com distribuição Beta, característica bimodal e que variam entre 0 e 1, é necessário realizar uma transformação Beta para deixar a variável dependente normalmente distribuída e utilizar, assim, uma regressão linear na estimativa dos coeficientes apropriados dos fatores preditivos, tendo como variável dependente o valor transformado de LGD. Depois de estimados os valores de LGD no “espaço normal”, aplica-se a transformada inversa para levar estes valores ao “espaço de LGD”, resultando nas estimativas de LGD para cada exposição de crédito.
Novamente, foi utilizado o método dos mínimos quadrados ordinários na regressão linear dos parâmetros explicativos contra os valores transformados de LGD.
Resultados e comentários finais
Os resultados das regressões lineares indicam que o modelo de Hamerle et al., que utiliza a transformação do tipo Logit, em comparação ao LossCalc, com a transformação Beta, foi o que teve a melhor qualidade no ajuste à linha de regressão, ou o maior valor de R2, em todas as bases de dados simuladas neste estudo, independentemente da correlação utilizada entre as variáveis explicativas. A Figura 1 (Histograma das variáveis simuladas no estudo) apresenta a distribuição das variáveis dependentes e independentes simuladas em uma das bases de dados utilizadas.
Algumas limitações da metodologia de simulação podem ser elencadas, como, por exemplo, o alto ajuste observado dos modelos em relação à reta de regressão, devido ao tipo de construção das bases utilizado. Como sugestão, as combinações entre as variáveis explicativas e LGD poderiam ser feitas por outros métodos em vez da matriz estocástica dupla utilizada. Outra limitação é a não avaliação da acurácia e do desempenho dos modelos de previsão em testes fora-da-amostra e fora-do-tempo, devido à utilização de bases de dados simuladas.
Para a criação de dependência, uma sugestão em trabalhos futuros semelhantes seria a utilização de relações não-lineares entre as variáveis explicativas, ou seja, a criação de cópulas não gaussianas, visto que em dados reais é provável que as relações existentes entre as variáveis não sejam lineares. Outra sugestão seria a utilização da metodologia descrita em bases de dados reais de instituições financeiras com muitas ou poucas operações inadimplentes, para verificar o comportamento de variáveis não simuladas nas estimativas de perdas em portfólios de crédito. Adicionalmente, outras técnicas de estimação podem ser investigadas, em substituição à análise de regressão linear múltipla utilizada no presente estudo.
Finalmente, as instituições financeiras podem utilizar esse trabalho como base metodológica para sua gestão de risco de crédito, visto que ele apresenta importantes ferramentas de simulações de dados e, ao mesmo tempo, propõe modelos que podem ser utilizados na mensuração das perdas em portfólios de crédito. Além disso, os bancos seriam capazes de estimar de forma mais precisa a LGD de suas carteiras, parâmetro essencial no cálculo dos requisitos mínimos de capital, na abordagem IRB avançada, seguindo as diretrizes do acordo de Basileia II e as regras definidas pelo Bacen.
Fonte: Valor
19 outubro 2011
O que veio primeiro, o ovo ou a galinha?
Os autores do artigo, "Ovos, galinhas: revisitando um dilema secular a partir de dados brasileiros", respondem a esta intrigante questão filosófica com uma boa dose de econometria e bom humor.
Os resultados da pesquisa indicam que:"... a hipótese nula de que Ovo não causa Galinha, é rejeitada a 1% de significância. O mesmo acontece com a hipótese Galinha não causa Ovo".
Assim, os economistas concluem que no caso brasileiro há bicausalidade (simultaneidade) entre ovos e galinhas, ou seja, ninguém veio primeiro.
O mais interessante nesse paper é a utilização dos testes de Granger com séries sazonais. Ademais, Clive Granger encontrou Buda.
Resumo:
Quem veio primeiro: o ovo ou a galinha? Economistas também podem responder
esta pergunta, por meio da econometria e com um pouco de bom humor. Foi o que fizeram
Thurman e Fisher (1988), cuja conclusão, para dados norte-americanos, foi que “ovos Granger causam galinhas”. Neste artigo, respondemos a mesma pergunta, mas com dados de um país periférico: o Brasil. A conclusão é a de que há bicausalidade entre ovos e galinhas.
esta pergunta, por meio da econometria e com um pouco de bom humor. Foi o que fizeram
Thurman e Fisher (1988), cuja conclusão, para dados norte-americanos, foi que “ovos Granger causam galinhas”. Neste artigo, respondemos a mesma pergunta, mas com dados de um país periférico: o Brasil. A conclusão é a de que há bicausalidade entre ovos e galinhas.
Imagem: aqui
29 setembro 2011
Soccernomics
Por Pedro Correia
Com menos de 1000 dias para a Copa de 2014, seja onde for, todos querem saber quais serão os 32 participantes do evento.Os economistas do Itaú BBA, construíram modelo econométrico para estimar quais são as probabilidades dos países da América do Sul de se classificarem nas eliminatórias locais. Três indicadores de sucesso foram utilizados no modelo, como variáveis explicativas para o sucesso da classificação:qualidade da seleção, tradição de participação em Copas do Mundo e riqueza econômica. A qualidade da seleção foi mensurada através da posição no ranking da Fifa, a tradição foi medida com a contagem do número de finais de Copa disputadas. Para a riqueza econômica foram considerados o PIB per capita, PIB e inflação.
Após rodarem o modelo econométrico, os economistas verificaram que o indicador de riqueza econômica é irrelevante. Assim, os outros indicadores mostram que a Argentina e Uruguai têm probabilidade de 94,2% e 85,9% de se classificarem. Logo em seguida, estão Chile e Paraguai com 75,3% e 63,1%.
Com menos de 1000 dias para a Copa de 2014, seja onde for, todos querem saber quais serão os 32 participantes do evento.Os economistas do Itaú BBA, construíram modelo econométrico para estimar quais são as probabilidades dos países da América do Sul de se classificarem nas eliminatórias locais. Três indicadores de sucesso foram utilizados no modelo, como variáveis explicativas para o sucesso da classificação:qualidade da seleção, tradição de participação em Copas do Mundo e riqueza econômica. A qualidade da seleção foi mensurada através da posição no ranking da Fifa, a tradição foi medida com a contagem do número de finais de Copa disputadas. Para a riqueza econômica foram considerados o PIB per capita, PIB e inflação.
Após rodarem o modelo econométrico, os economistas verificaram que o indicador de riqueza econômica é irrelevante. Assim, os outros indicadores mostram que a Argentina e Uruguai têm probabilidade de 94,2% e 85,9% de se classificarem. Logo em seguida, estão Chile e Paraguai com 75,3% e 63,1%.
19 abril 2011
Econometria
Por Pedro Correia
Dica do Erik Figueiredo:
Uma leitura obrigatória para quem gosta de econometria:
Zellner, A. (2007). Philosophy and objectives of econometrics, Journal of Econometrics 136(2), 331-339.
01 junho 2009
05 novembro 2006
Econometria
Nunca é demais citar novamente os dois papers de Kennedy sobre econometria (em PDF e inglês):
Sinning in the Basement: What are the Rules? Ten Commandments of Applied Econometrics
Oh no! I got the wrong sign! What should I do?.
Sinning in the Basement: What are the Rules? Ten Commandments of Applied Econometrics
Oh no! I got the wrong sign! What should I do?.
Assinar:
Postagens (Atom)