Translate

Mostrando postagens com marcador métodos quantitativos. Mostrar todas as postagens
Mostrando postagens com marcador métodos quantitativos. Mostrar todas as postagens

23 setembro 2018

Suposição

Em muitos trabalhos realizados no Brasil e submetidos em congressos / periódicos tem sido comum a solicitação dos famosos testes do modelo de regressão (como a normalidade dos erros). Eis o que diz Gellman:

The key assumptions of a regression model are validity and additivity. Except when you’re focused on predictions, don’t spend one minute worrying about distributional issues such as normality or equal variance of the errors.

27 maio 2013

Pesquisa Contábil Brasileira: Uma Análise Filosófica


Rodrigo Dias Gomes
O contexto atual da pesquisa contábil e algumas de suas patologias foi o tema da tese doutorado do pesquisador Eric Aversari Martins, apresentada ao Departamento de Contabilidade e Atuária (EAC) da FEA. O trabalho "Pesquisa Contábil Brasileira: Uma Análise Filosófica", orientado pelo professor Luiz Nelson Guedes de Carvalho, fez uma reflexão sobre as mudanças ocorridas na pesquisa em Contabilidade nas últimas décadas, e a dicotomia entre a pesquisa positiva e normativa.

Eric é graduado em Ciências Contábeis pela FEA, com doutorado em Controladoria e Contabilidade. Atualmente, é professor do Ínsper. Ele é filho de Eliseu Martins, professor emérito da faculdade. Em entrevista ao Portal da FEA, ele explicou algumas questões fundamentais para a compreensão da tese.

Qual o ponto central da sua pesquisa, que você julga ser a questão principal?

O ponto central foi buscar entender o processo de mudança de paradigma que a pesquisa contábil feita no Brasil sofreu entre o final da década de 90 e o início do século 21, e quais os efeitos dessa alteração quanto a qualidade e utilidade. Nascida normativa, por volta da década de 60 e 70, ela era fundamentalmente voltada para a prática contábil, para a avaliação e solução de problemas reais das empresas, do sistema normatizador contábil brasileiro e do então incipiente mercado financeiro. Em meados da década de 90 ela passa a adotar uma postura de descrever e explicar a realidade, buscando obter relações entre dados contábeis e variáveis econômicas.

Qual a diferença da pesquisa positiva para a normativa?

A pesquisa positiva trabalha, a posteriori dos fatos, buscando a descrição e a explicação de eventos ocorridos, com isenção de valores e julgamentos nas suas conclusões. Ela tem como objetivo mostrar como as coisas do mundo se comportam e quais as relações entre elas. Nesse sentido, ela é calcada nos mesmos princípios atualmente aplicados nas ciências duras, e é fortemente influenciada pelo positivismo lógico desenvolvido pelo Círculo de Viena e sedimentado por Karl Popper. Já a pesquisa normativa busca intervir no mundo, melhorar práticas, propor mudanças. Assim, ela age a priori dos fatos, buscando prescrever ações. E essa prescrição de comportamento depende daquilo que o pesquisador entende como sendo melhor, como sendo bom. Isso envolve julgamentos de valor que não podem ser comprovados ou refutados, pois são subjetivos e, em última instância, individuais.

No seu entendimento, a pesquisa positiva é mais importante que a pesquisa normativa?

Não. A ideia da hierarquização daquilo que é positivo sobre o que é normativo é influenciada fortemente pelo pensamento do positivismo lógico. Antes do Círculo de Viena essa separação já existia. David Hume, Neville Keynes e Marx Weber são exemplos de pensadores que trataram dessa questão, mas nunca colocaram uma forma de fazer pesquisa como sendo mais importante, melhor ou mais relevante do que a outra. Quando se fala em pesquisa em um campo como a contabilidade, social e aplicada, ambas as formas possuem papéis igualmente relevantes no mundo. Na pesquisa contábil elas possuem uma relação íntima. A pesquisa positiva evidencia mais claramente os efeitos daquilo que a pesquisa normativa gera quando suas propostas são postas em prática, comprovando ou refutando a adequação das ações prescritas. Com isso, novos argumentos podem ser obtidos para fundamentar novas pesquisas normativas, que poderão gerar outros testes positivos que poderão subsidiar outras propostas normativas e assim por diante. Mais importante do que a pesquisa ser positiva ou normativa, é a pesquisa ser bem feita ou mal feita.
Como você enxerga essa transição da pesquisa normativa para positiva?
A transição da pesquisa normativa para a positiva é fruto de um processo de mudança que nasce com inquietações de alguns professores do departamento de contabilidade da FEAUSP preocupados com o problema da ausência de metodologia de pesquisa e de métodos quantitativos, que se inicia em meados da década de 80 e vai até meados da década de 90.

Quem são os grandes responsáveis?

O mais importante nome dessa primeira fase foi o Prof. Sérgio de Iudícibus, que começou a trazer a utilização de métodos quantitativos para a pesquisa contábil brasileira, aplicando-os na solução de problemas práticos, principalmente na área de custos, desenvolvendo o conceito de Contabilometria e criando uma disciplina que trouxe os principais aspectos da pesquisa positiva norte-americana, onde ela já estava se sedimentando. Essa inquietação leva, já em meados de 90, a outro fato importante: a contratação do Prof. Gilberto Martins pelo departamento de contabilidade da FEAUSP, que introduz a metodologia científica mais voltada para trabalhos teórico-empíricos não normativos. Por fim, já no início do século 21, a contratação do Prof. Alexsandro Broedel, um dos pioneiros na área de pesquisa positiva no Brasil, foi extremamente relevante, pois sua atuação tanto na realização de relevantes pesquisas quanto no ensino auxiliou na sedimentação de uma nova forma de se fazer pesquisa contábil que ainda era quase que desconhecida no Brasil.

A que outros fatores pode ser atribuído esse processo?

Dois fatores ambientais geraram solo fértil para a disseminação da pesquisa positiva: o primeiro foi que em 2001 a CAPES avaliou todos os programas de pós-graduação em contabilidade com a nota mínima, 3, e o principal problema era a ausência de publicações científicas. Como a contabilidade não possuía periódicos científicos próprios, a pesquisa positiva contábil foi muito útil para aumentar o volume de publicação dos artigos, que tinham que ser enviados a periódicos das áreas de administração e economia, já também sedimentadas ao redor da pesquisa positiva. O segundo fator: no ano 2000 começou um boom de programas de pós-graduação em contabilidade no país, indo de 4 em 1998 para 18 em 2009. E a população de doutores desses cursos era formada metade por contadores e a outra parte por oriundos da administração e economia, também já fortemente voltados para a pesquisa positiva derivada dessas áreas. O surgimento da pesquisa positiva acabou por matar a pesquisa normativa, que passou a ser rejeitada nos meios acadêmicos da contabilidade, quase que totalmente suplantada por essa nova visão.

Em que ponto isso é prejudicial para a prática da contabilidade no país?
O que eu acho que é prejudicial para a prática contábil não é o surgimento da pesquisa positiva no Brasil, mas o tratamento generalizado que tem sido dispensado para a pesquisa normativa pela academia contábil: ela tem sido ignorada e tratada como indesejável. E isso prejudica a prática, pois uma grande massa crítica de pensadores acadêmicos, estudiosos, deixa de pensar em como intervir e melhorar a prática. Deixam de existir discussões formais sobre assuntos importantes da realidade da prática que necessitam de solução; passam a povoar os periódicos, descrições de fatos com pouca ou nenhuma utilidade na prática, a não ser exclusivamente para acadêmicos. Assim, esse exagero de pesquisa positiva não piora a prática, mas a prejudica, pois deixa de auxiliar na sua melhoria.

Você entende que esse é um fenômeno brasileiro ou acredita que ocorre também no âmbito internacional?

Creio que isso é um fenômeno que também ocorre no âmbito internacional. Críticas semelhantes sobre o excesso de pesquisa positiva e sua pouca utilidade na prática podem ser encontradas em periódicos internacionais de primeira linha, assinadas por pesquisadores internacionalmente reconhecidos, como Kaplan, Hopwood, Chua e Holthausen. Mas o movimento de mudança desse panorama já é maior no exterior. Nos Estado Unidos, Europa e Oceania já existem periódicos exclusivamente dedicados a paradigmas de pesquisa que não o positivismo, e a pesquisas não necessariamente positivas.

Em sua opinião, o que pode ser feito para alterar esse quadro?

Eu entendo que os próprios programas de pós-graduação em contabilidade podem passar a não focar exclusivamente em pesquisa positiva e métodos quantitativos, mas incentivarem outras visões. Em 2012, por exemplo, se somados todos os 18 programas de pós-graduação em contabilidade do Brasil, 31 disciplinas de métodos quantitativos eram oferecidas e somente uma de métodos qualitativos. Isso é um sintoma do foco quase que exclusivo na pesquisa positiva. Ainda, os cursos de metodologia precisam deixar de ser meros manuais de como se faz trabalho científico e se aprofundar nas questões filosóficas subjacentes ao processo de geração de conhecimento. Afinal, antes de se fazer pesquisa é necessário entender o que é pesquisa, como é o processo de geração de conhecimento de forma mais ampla e qual a sua função na sociedade. Ainda, também precisam abordar de maneira mais aprofundada a dicotomia positivo-normativo buscando uma visão conciliatória entre essas posições. Temo que se os programas de pós-graduação não começarem a mudar esse panorama no ensino da metodologia e do processo de pesquisa, a situação atual não será alterada.

Você já observa alguma mudança nesse sentido?

Sim. É importante ressaltar que já existem focos de mudança no pensamento sobre a pesquisa contábil. Na própria USP já podem ser vistas atitudes de alguns alunos, professores e da própria coordenação do curso, que buscam outras formas de pesquisa e de conhecimento alheias ao positivo e ao positivismo. Podem ser encontrados raros trabalhos que indicam a necessidade de utilização de novos paradigmas, bem como pesquisas que destes se utilizam. Novas disciplinas voltadas para visões distintas já estão sendo criadas e oferecidas como alternativa à pesquisa qualitativa tradicional. Já há um movimento de mudança, apesar de pequeno. A semente já está lançada, agora ela precisa ser regada. Mas uma coisa precisa ser evitada: um novo paradigma entrar e substituir o outro. O importante é aumentar as possibilidades. Não sou a favor do fim da pesquisa positiva, pelo contrário, mas sim de uma ampliação do pensamento acerca do processo de geração de conhecimento para abraçar visões diferentes, que aceite paradigmas diversos.

31 março 2013

Usando Método Quantitativo 5

Em postagens anteriores (vide abaixo) comentamos a utilização de métodos quantitativos. Esta postagem é útil para situação onde o trabalho já está pronto. Fizemos um check-list para verificar se o método quantitativo utilizado agregará valor ao trabalho ou será um ponto negativo.

1 – Simplicidade – muitas vezes o segredo do bom uso de um método quantitativo é a sua simplicidade. Os trabalhos que tenho lido em periódicos de primeiro nível não se caracterizam pela complexidade. Pelo contrário, é possível encontrar muitos artigos onde se utiliza regressões lineares. Certa vez, participando de uma comissão avaliadora com um conhecido autor da área quantitativa, ele chamou a atenção para simplicidade, e eficiência, do teste de média utilizado pelos autores de finanças comportamentais na década de 70.

2 – Aplicabilidade – O segundo aspecto importante é saber se o método usado pode ser verdadeiramente aplicável a situação. Um pouco antes de escrever esta postagem estava analisando um trabalho de congresso onde o autor usava análise discriminante num estudo de caso. A análise discriminante é muito usada para separar grupos de empresas; em particular, foi usada no passado para desenvolver indicadores de solvência. Para isto, os pesquisadores usavam um grande conjunto de dados (empresas). Entretanto, o uso da análise discriminante para uma só empresa não faz muito sentido.

3 – Pressupostos – O trabalho está considerando todos os pressupostos do método utilizado? Quando usamos uma média, devemos estar alertas para o fato de esta medida ser muito influenciada pelos valores extremos. Quando chamamos a atenção para os pressupostos, verificamos se as condições necessárias para sua utilização foram satisfeitas. Este aspecto é desagradável, pois significa que quando os pressupostos não são atendidos devemos buscar alternativas.

4 – Meio e fim – É importante que o método quantitativo seja um meio, nunca o fim. Isto significa que o instrumento não deve ser o aspecto mais relevante do trabalho. Sabemos que isto ocorre quando no título do trabalho aparece o nome da técnica; algo como “O uso de Análise Fatorial na Análise de Balanços”. Outra forma de perceber isto é na descrição do objetivo, quando o autor afirma, por exemplo, que o texto “pretende apresentar uma aplicação da análise fatorial”.

5 – Default do software – A utilização do software no cálculo de um método quantitativo está baseada numa série de default. Assim, quando usamos uma média aritmética simples é preciso saber, por exemplo, como o software tratou os dados inexistentes: foram desconsiderados, considerados como igual a zero ou outra opção. Em métodos mais sofisticados, os softwares apresentam inclusive alternativas de mudar o default do cálculo; é importante que se saiba da razão de usar este default.

6 – Todos os passos – Quando usamos um método quantitativo, temos uma série de passos: alguns dados foram excluídos, fizemos algumas transformações, verificamos os pressupostos, entre outros. Em cada passo, fizemos escolhas. Estas escolhas precisam ser apresentadas no trabalho, para permitir que as pessoas tenham ideia das limitações e alcance da pesquisa.

7 – Analise os resultados relevantes – Após apresentar os resultados, o pesquisador precisa analisar os resultados relevantes. Isto inclui as estatísticas descritivas, os sinais da regressão, a diferença entre o resultado obtido e o resultado esperado, as explicações possíveis para o inesperado, entre outros aspectos.

Outros textos da mesma série:Uso do editor de textoMétodo que devo usarTécnicas mais usadas e Software 

24 março 2013

Usando método quantitativo 4


Um complemento importante na utilização de métodos quantitativos em trabalhos acadêmicos é o software. Quais os critérios que devo usar para selecionar o programa computacional adequado para a minha pesquisa? Obviamente este texto não possui validade para aquelas situações onde a escolha do software é feita de maneira compulsória por terceiros. Uma situação deste tipo é quando o professor adota um programa na sua disciplina.

A seguir apresentamos cinco características fundamentais que devem ser levadas em consideração na escolha:

1 – O que você pretende fazer?
A escolha do software depende, e muito, das suas necessidades. Provavelmente em muitos casos uma planilha eletrônica resolve a maioria dos casos. Livros como Christoffersen (Elements of Financial Risk Management) mostram que é possível, com o Excel, estudar profundamente modelos de risco. Benninga fez o mesmo na sua obra (Financial Modelling) sobre avaliação. Isto prova nosso argumento.
Entretanto, algumas aplicações demandam um programa mais sofisticado, que você não consegue fazer somente com a planilha eletrônica. Se você está interessado em simulações, o Crystall Ball é recomendado; análise multivariada é melhor no SPSS; aplicações com series temporais é mais adequado no Eviews e assim por diante.

2 – Você quer simplicidade ou impressionar?
Como a maioria das pessoas já conhece uma planilha eletrônica, um software estatístico talvez não seja recomendável para quem deseja simplicidade. Mas no ambiente acadêmico pode ser importante impressionar o público alvo. Neste caso, revelar que você fez seus testes numa planilha não é aconselhável. É muito mais sofisticado dizer que usou o SPSS, versão 17.0. E quanto mais atual a versão do software, mais impressionada ficará a plateia.

3 – Você tem limitações orçamentárias ou não usa produtos piratas?
Um software estatístico é muito dispendioso. Comprá-lo pode comprometer seu orçamento, exceto se seu trabalho consegue obter a licença. Se você não usa produtos piratas, a escolha pode recair por programa mais baratos ou gratuitos. Uma boa alternativa para o Eviews é o Gretl, que é um software livre de boa qualidade. Mesmo para o Excel, o BR Office ou o Docs do Google são alternativas gratuitas.

4 – Você irá necessitar de ajuda?
Este é um ponto relevante, geralmente desprezado, na escolha. Provavelmente você irá encontrar algumas dificuldades na utilização do software. Se você conhece um amigo que já usa um desses programas, isto pode ser relevante nos momentos de desesperos. Outra possibilidade é escolher um software que possua uma referência adequada. Nos dias de hoje é muito comum que os livros de métodos quantitativos sejam acompanhados de tópicos relacionados a utilização de softwares. Algumas obras enfatizam isto de forma bem marcante. O livro excelente de Fields (Descobrindo a Estatística Usando o SPSS, Artmed) é um exemplo disto: ele mostra como usar a técnica de maneira muito didática e acompanhada de como você pode fazer a aplicação no SPSS, um dos softwares mais populares.

5 – Você tem dificuldade com a curva de aprendizagem?
Um dos grandes problemas na utilização das máquinas (computadores, principalmente) é o nosso processo de adaptação aos comandos que já conhecemos. Quando mudamos de editor de texto, por exemplo, temos uma dificuldade de saber onde estão os comandos que precisamos. O mesmo ocorre com os softwares na área quantitativa. Se você já conhece os comandos de uma planilha eletrônica, poderá ter um pouco de dificuldade de usar um software como o R, mas a adaptação talvez seja mais rápida no Cristall Ball. Se você gosta de desafios, a primeira opção é aconselhável, já que em muitos casos você deve inserir os comandos que a máquina irá executar. Apesar de muitos programas apresentarem uma “aparência” próxima aos produtos da Microsoft, não deixe de levar isto em consideração.

10 março 2013

Usando métodos quantitativos – parte 3


Nas postagens anteriores, comentamos sobre o uso de editor de texto para formatar adequadamente um trabalho e como escolher o método que deve ser usado. Nesta postagem tentaremos responder a seguinte questão: o que é relevante em métodos quantitativos? Quando você abre um livro de métodos quantitativos (de estatística, por exemplo) existem muitos capítulos. Mas será que algum é mais relevante que outro?

A resposta desta pergunta é um “depende”. Em algumas áreas do conhecimento, a análise de séries temporais é muito usada; em outras, não. Iremos cometer uma heresia em elencar três métodos mais usados nos trabalhos acadêmicos na área de contabilidade.

1 – Estatística descritiva
Tudo deveria começar pela estatística descritiva. Este grupo de medidas mostra, de uma maneira geral, como se comportam os dados. Em lugar de perder muito tempo argumentando sobre como os dados se apresentam, entregar ao leitor os valores da média, mediana, desvio-padrão, assimetria e curtose é muito mais informativo. Além destas medidas, também se pode apresentar os valores mínimos e máximos e os quartis. Mesmo trabalhos sofisticados, publicados em periódicos de ponta, usam esta ferramenta.

2 – Regressão
A regressão pode ser usada tanto para estudar a relação entre variáveis, quanto o efeito do tempo. Esta técnica é mais complexa que a estatística descritiva e envolve um tempo de estudo maior. Além disto, os riscos de usar mal este instrumento são grandes. Existem suposições que precisam ser respeitadas e algumas “dicas” que podem melhorar o resultado final.

3 – Teste de Média
O teste de média permite comparar duas amostras em termos da sua média. Se temos dois conjuntos de dados, com médias diferentes, só podemos afirmar que realmente são diferentes após usar este tipo de teste. Existem também testes para variâncias e medianas, mas o teste de média é o mais usado na prática.

É interessante notar que as três técnicas descritas acima podem ser usadas numa planilha eletrônica disponível no mercado, ao contrário de ferramentas mais sofisticadas, que possuem pouca utilidade. 

03 março 2013

Usando Métodos Quantitativos – 2


A pergunta mais importante que alguém faz quanto se depara com a necessidade de usar algum método quantitativo é: qual o método que devo usar? Esta postagem irá comentar sobre a forma de responder a esta questão.

1 – Veja os textos de pesquisas anteriores
Uma forma de determinar o método que deve ser usado é observar o que os pesquisadores já usaram para responder a perguntas similares. Naturalmente que quanto mais citado for a pesquisa, menor a chance de errar na escolha. Existem dois problemas nesta alternativa: (1) podemos deixar de lado formas modernas de tratamento quantitativo; (2) muitas vezes as escolhas que foram feitas no passado eram decorrentes do tipo de dado que o pesquisador tinha.

2 – Livros
Alguns livros possuem um bom resumo de técnicas que podem ser usadas. Particularmente gosto muito da introdução do livro de Análise Multivariada, de Hair et alii. Naquela obra os autores fazem uma descrição de abrangente de algumas técnicas. Entretanto, mesmo o livro citado é incompleto, pois ignora técnicas como testes de médias.

3 – Softwares
Alguns softwares possuem a função de técnico (coach). Após uma série de perguntas, o software indica qual deve ser a técnica a ser usada. Esta é uma função presente no SPSS, um dos softwares mais usados em trabalhos acadêmicos. Existe aqui um ponto negativo: a função está associada somente aos métodos que existem no software. Apesar disto, acredito que mais de 90% dos casos podem ser resolvidos por esta função.

4 – Consulte um especialista
Esta é uma possibilidade bastante adequada. Descreva o seu problema para um amigo com conhecimentos em métodos quantitativos e peça uma dica para ele. Apesar de funcionar em alguns casos, particularmente não gosto muito desta possibilidade: os especialistas têm preferências, que podem passar na resposta ao seu questionamento. Ademais, nem todo conhecedor de métodos quantitativos sabe de todas as técnicas. Uma possibilidade é usar uma empresa Junior de estatística para ajudá-lo na escolha.

Acredito que uma destas abordagens seja suficiente para que você possa ter uma resposta para sua questão. Ou a junção das técnicas. 

Esta é a segunda postagem de uma série sobre métodos quantitativos. A primeira foi sobre o uso de editor de texto para escrever uma redação quantitativa. 

26 novembro 2011

Basileia II

O acordo de Basileia II no Brasil vai permitir que os bancos utilizem modelos internos, na abordagem IRB avançada, que sirvam de base para o cálculo dos requisitos mínimos de capital em função do nível de exposição ao risco de crédito. Dentre os principais componentes estimados estão a probabilidade de descumprimento (PD – probability of default), a perda dado o descumprimento (LGD – loss given default) e a exposição no descumprimento (EAD – exposure at default). Este trabalho tem como objetivo investigar mecanismos de estimação de LGD utilizando modelos de regressão. Considerando que o mercado brasileiro ainda se encontra em um estágio incipiente na análise de LGD e a disponibilidade de dados de taxas de recuperação é restrita, foram simulados portfólios de crédito através de técnicas de Monte Carlo. A dependência entre LGD e as variáveis explicativas das percentagens de perdas em caso de inadimplência é modelada através de cópulas gaussianas e de matrizes bi-estocásticas. Os resultados sugerem que a análise de regressão multivariada, usando diversas funções de transformação, possibilita identificar adequadamente as variáveis que explicam LGD.

A concessão de crédito é requisito essencial para o desenvolvimento de um país. Nos últimos anos, a oferta de crédito no Brasil tem aumentado de maneira significativa, influenciada por diversos fatores importantes, como a queda nas taxas de juros, o aumento do prazo médio das operações e a estabilidade econômica.

Segundo dados do Banco Central do Brasil (Bacen), o estoque total de empréstimos bancários no sistema financeiro em relação ao PIB passou de 31,6% em 2007 para 47,2% em 2010. Essa ampliação de recursos destinados à concessão de crédito causa também o aumento dos riscos e a necessidade de maior controle por parte das instituições financeiras e do regulador do mercado, o Bacen.

O Gráfico 1 mostra a Relação Crédito/PIB no Brasil e em outros países do mundo, em porcentagem, e indica que o Brasil ainda empresta pouco em relação a seu Produto Interno Bruto (PIB), comparando-se com países desenvolvidos como Espanha e Estados Unidos e com países emergentes como o Chile e a Malásia. Se a tendência de aumento do crédito atual for mantida, é possível que o Brasil alcance em alguns anos os níveis dos países com maior volume de financiamentos em relação ao PIB no mundo. Por isso, será cada vez mais importante para os bancos precificarem e gerenciarem o risco de crédito de maneira mais precisa, utilizando sistemas mais sofisticados de gestão. Já o Bacen deve estar apto a exigir requisitos mínimos de capital que consigam refletir o verdadeiro risco das carteiras de crédito dos bancos, seguindo diretrizes traçadas internacionalmente pelo Comitê de Basileia II e adaptando algumas regras para as especificidades do mercado brasileiro.



No Brasil, o Banco Central determinou, em 2004, através do comunicado nº 12.746, o cronograma de implementação de Basileia II, com previsão de encerramento no final de 2011. Em outubro de 2009 ocorreu a última atualização do cronograma, através do comunicado nº 19.028, e a previsão de encerramento do processo de implantação foi alterada para o final do primeiro semestre de 2013. Em fevereiro de 2011, o Bacen publicou o Edital de Audiência Pública nº 37, com as regras que devem fazer parte do documento final de Basileia II no Brasil e que irão reger o sistema bancário nacional.

O presente estudo pretende verificar o comportamento das perdas em carteiras de crédito simuladas com técnicas de Monte Carlo e, além disso, realizar estimativas de LGD utilizando dois diferentes modelos descritos na literatura e comparar os resultados obtidos por cada um deles. Os valores estimados de LGD são utilizados no cálculo do Capital Mínimo Exigido (CME), determinante do capital alocado pela instituição financeira, através dos modelos internos na abordagem IRB avançada. Dada a escassez de dados de perdas em carteiras de empréstimos disponíveis ao público, este estudo utiliza bases de dados simuladas com técnicas de Monte Carlo. Para a criação de dependência entre algumas variáveis explicativas aleatórias, foram utilizadas cópulas gaussianas e, no processo de junção das variáveis com as observações de LGD, foram utilizadas matrizes estocásticas duplas.

No procedimento utilizado, primeiramente os valores de LGD e das variáveis explicativas que compõem as bases de dados do estudo são simulados. Em seguida, essas bases são utilizadas para a realização de estimativas do parâmetro LGD através: (i) do modelo desenvolvido por Hamerle et al. e (ii) do LossCalc, da Moody’s KMV, descrito por Gupton e Stein. Finalmente, os resultados obtidos por cada modelo de estimação de LGD dentro dos portfólios de crédito resultantes das simulações serão comparados.

Este trabalho pode servir como base para as instituições financeiras analisarem e estimarem de forma mais precisa suas perdas de crédito e as eventuais recuperações incorridas em seus portfólios, utilizando a metodologia nele descrita e adaptando as informações e as variáveis do estudo pelos seus dados observados internamente. Além disso, o trabalho pode ser utilizado pelos bancos com poucas observações de perdas na simulação de portfólios de crédito fictícios.

Em resumo, a metodologia se baseia em três etapas principais: (i) desenvolvimento de portfólios de crédito utilizando simulação de Monte Carlo, cada um contendo 10.000 observações de LGD, que são formadas pela junção de duas variáveis com distribuição Beta, uma com assimetria à direita e outra com assimetria à esquerda, e 10.000 observações de quatro variáveis explicativas de clientes inadimplentes, sendo duas delas seguindo uma distribuição Beta, uma com distribuição normal e uma com distribuição de Bernoulli; (ii) realização de estimativas de LGD das carteiras simuladas, utilizando dois modelos descritos na literatura e (iii) comparação dos resultados obtidos com a aplicação dos dois modelos de estimação de LGD.

Mais especificamente, a simulação de dados envolve (i) o uso de cópulas gaussianas para a modelagem de dependência entre as variáveis explicativas associadas à inadimplência e (ii) o confronto entre percentis da variável LGD e das variáveis independentes levando-se em consideração uma matriz bi-estocástica como referência. A estimação do modelo de LGD através dos dados gerados por simulação de Monte Carlo é realizada usando-se regressão linear múltipla.

As cópulas gaussianas são geradas a partir da correlação entre as variáveis explicativas. Dentro do estudo, foram utilizados quatro conjuntos de correlações diferentes na simulação das carteiras de crédito, e verificou-se que não houve impacto significativo nos resultados das regressões dependendo da correlação utilizada.

A simulação de dados é fundamental no desenvolvimento deste trabalho, dadas as dificuldades na obtenção de dados reais de LGD em carteiras de crédito no Brasil. Desta forma, o presente estudo deve resultar em uma ferramenta teórica importante de análise de carteiras para as instituições financeiras, que serão capazes de controlar melhor suas perdas esperadas e inesperadas, seguindo também as diretrizes do acordo de Basileia II e do Bacen. A metodologia desenvolvida pode ser utilizada por instituições financeiras que desejem realizar estimativas de LGD para verificar quais variáveis impactam nas perdas em seus portfólios de crédito.

Depois de simuladas as bases de dados, foram utilizados no estudo dois modelos descritos na literatura, que são apresentados a seguir.

Modelo Logit

Uma vez que a LGD é expressa de forma percentual, variando entre 0 e 1, não é possível realizar estimativas diretamente através de regressão linear. Assim, é necessário seguir um procedimento de transformação do tipo Logit nas observações de LGD da base de dados de desenvolvimento para então realizar estimativas através de regressão linear e obter os coeficientes de cada variável transformada. Em seguida, utilizando os coeficientes obtidos na regressão, são estimados os valores que serão posteriormente transformados em observações de LGD através da função inversa utilizada no início do procedimento.

Nos dados deste trabalho, são realizadas regressões lineares dos parâmetros explicativos que foram simulados contra os valores transformados das observações de LGD, utilizando-se o método dos mínimos quadrados ordinários.

Modelo LossCalc, da Moody’s KMV

O LossCalc é um sistema desenvolvido pela Moody’s KMV que considera a taxa de recuperação no momento da inadimplência como uma variável estocástica independente da PD e igual a 1 – LGD. É utilizado por investidores e instituições financeiras nas estimativas de LGD para eventos de inadimplência ocorridos imediatamente ou que venham a ocorrer dentro de um ano.

Partindo das observações de LGD nas bases de dados simuladas, criadas através da combinação de duas variáveis com distribuição Beta, característica bimodal e que variam entre 0 e 1, é necessário realizar uma transformação Beta para deixar a variável dependente normalmente distribuída e utilizar, assim, uma regressão linear na estimativa dos coeficientes apropriados dos fatores preditivos, tendo como variável dependente o valor transformado de LGD. Depois de estimados os valores de LGD no “espaço normal”, aplica-se a transformada inversa para levar estes valores ao “espaço de LGD”, resultando nas estimativas de LGD para cada exposição de crédito.

Novamente, foi utilizado o método dos mínimos quadrados ordinários na regressão linear dos parâmetros explicativos contra os valores transformados de LGD.

Resultados e comentários finais

Os resultados das regressões lineares indicam que o modelo de Hamerle et al., que utiliza a transformação do tipo Logit, em comparação ao LossCalc, com a transformação Beta, foi o que teve a melhor qualidade no ajuste à linha de regressão, ou o maior valor de R2, em todas as bases de dados simuladas neste estudo, independentemente da correlação utilizada entre as variáveis explicativas. A Figura 1 (Histograma das variáveis simuladas no estudo) apresenta a distribuição das variáveis dependentes e independentes simuladas em uma das bases de dados utilizadas.

Algumas limitações da metodologia de simulação podem ser elencadas, como, por exemplo, o alto ajuste observado dos modelos em relação à reta de regressão, devido ao tipo de construção das bases utilizado. Como sugestão, as combinações entre as variáveis explicativas e LGD poderiam ser feitas por outros métodos em vez da matriz estocástica dupla utilizada. Outra limitação é a não avaliação da acurácia e do desempenho dos modelos de previsão em testes fora-da-amostra e fora-do-tempo, devido à utilização de bases de dados simuladas.

Para a criação de dependência, uma sugestão em trabalhos futuros semelhantes seria a utilização de relações não-lineares entre as variáveis explicativas, ou seja, a criação de cópulas não gaussianas, visto que em dados reais é provável que as relações existentes entre as variáveis não sejam lineares. Outra sugestão seria a utilização da metodologia descrita em bases de dados reais de instituições financeiras com muitas ou poucas operações inadimplentes, para verificar o comportamento de variáveis não simuladas nas estimativas de perdas em portfólios de crédito. Adicionalmente, outras técnicas de estimação podem ser investigadas, em substituição à análise de regressão linear múltipla utilizada no presente estudo.

Finalmente, as instituições financeiras podem utilizar esse trabalho como base metodológica para sua gestão de risco de crédito, visto que ele apresenta importantes ferramentas de simulações de dados e, ao mesmo tempo, propõe modelos que podem ser utilizados na mensuração das perdas em portfólios de crédito. Além disso, os bancos seriam capazes de estimar de forma mais precisa a LGD de suas carteiras, parâmetro essencial no cálculo dos requisitos mínimos de capital, na abordagem IRB avançada, seguindo as diretrizes do acordo de Basileia II e as regras definidas pelo Bacen.

Fonte: Valor

20 setembro 2011

Otimização de resultados na Tata

A Tata Iron Steel Company Ltd. é uma das maiores empresas da Índia. Por causa do suprimento pouco confiável de energia elétrica, a empresa se defronta com faltas frequentes de energia e deve gerir cuidadosamente seu consumo de energia elétrica -alocando a energia escassa à aplicações mais rentáveis. A estimação das necessidades de energia em cada posto de processamento na usina siderúrgica foi a primeira cosntrução de um modelo de gestão aprimorado do consumo de energia. A adminisração utilizou a regressão simples por mínimos quadrados para estimar os componentes fixo e variável de da carga de nergia elétrica. O consumo total de energia era a variável dependente, e a variável independente era o número de toneladas de aço processadas. O componete fixo estimado a partir da regressão por mínimos quadrados foi o consumo fixo de energia, em quilowatts-hora por mês, e o componente variável era o consumo de energia por tonelada de aço processada.

Fonte: "How Tata Steel Optimized Its Results", The Managemente Accountant, maio de 1996,pp.372-376.

24 junho 2011

Terminologia


A figura abaixo foi retirada do texto Quantitative methods in accounting research, de  Marek Gruszczyński, da Escola de Economia de Varsóvia (working paper 6-09). O quadro, por sua vez, é uma adaptação de um documento da Price polonesa.


Veja os leitores a extrema dificuldade que os documentos contábeis têm em definir claramente os termos. Observe que estamos falando de termos vinculados a probabilidade, mas é difícil imaginar a diferença entre “altamente improvável” de “extremamente improvável” ou de “minimamente improvável” ou de “insignificante” ou “remoto” ou “extremamente raro”, entre outros.

Um evento com 1% de chance de ocorrer estaria em qual dos termos acima?

11 abril 2011

Como gostar de Métodos Quantitativos?

Nos dias de hoje é cada vez mais comum a utilização de métodos quantitativos. Na área acadêmica quase todos os trabalhos, a partir do mestrado, usam métodos quantitativos. Mesmo em algumas áreas onde a parte discursiva é substancial, como história, administração ou direito, é cada vez mais comum o uso de fórmulas, pesquisas quantitativas, etc. Parece inevitável, portanto, a expansão dos métodos quantitativos. Entretanto, existem pessoas que tem bloqueio dos métodos quantitativos. Este bloqueio é decorrente das notas baixas em matemática no ensino médio ou por ter encontrado um professor que teve o prazer que fazer mais uma pessoa detestar qualquer coisa que tem um número ou uma fórmula. Eis alguns conselhos para resolver seu problema:

 1. Pense que você não está sozinho – Muitas pessoas possuem a mesma dificuldade. É muito mais comum encontrar alguém que seja ruim em números do que uma pessoa que seja analfabeta. Mesmo aquela pessoa que parece saber muito sobre o assunto, provavelmente não conhece tudo, tem dificuldades e já teve barreiras. Saber que você não está sozinho é importante para sua autoestima.

 2. Tente vencer o obstáculo aos poucos – Você não conseguirá aprender métodos quantitativos de uma vez. Esqueça isto. Então comece com um passo de cada vez.

 3. Comece com um bom livro ou um bom filme – Métodos quantitativos podem ser interessantes. É verdade, acreditem. Para que você possa ter a mesma opinião, comece com lendo um livro que seja acessível ou assista a um bom filme.

 4. Em geral aulas da pós-graduação tende a ser mais focada do que aulas de graduação (esta dica eu li no Marginal Revolution) e a qualidade depende do instrutor. Por isto, procure o professor que irá ensinar da forma como você gosta. Em métodos quantitativos existem dois tipos de métodos de ensino: os professores que dedicam a ensinar a essência do método, enfatizando deduções teóricas pesadas; e os professores que ensinam a usar um software estatístico ou matemático. (Na realidade, a maior parte dos professores está num meio termo, apesar do segundo tipo ser muito criticado na academia.) Escolha seu professor conforme o estilo dele e seu gosto.

 5. Tente não parar de estudar – Continue o aprendizado. Depois de aprender sobre regressão, você pode estudar programação linear, por exemplo. Continue estudando sempre.

 6. Tenha um bom companheiro de estudo – O seu companheiro poderá dar um incentivo adicional: o material didático. Já existem no mercado excelentes livros. Se você está estudando regressão múltipla e não entendeu os ensinamentos do Hair (um dos bons livros da área), tente o Field ou Stevenson ou outro qualquer. Às vezes a forma de exposição da idéia por parte de um autor pode ser mais clara do que outro.

 7. A melhor forma de vencer o obstáculo é saber que você tem uma necessidade. Lembre-se de que você precisa de métodos quantitativos. Isto pode ser uma motivação adicional para vencer.

 Para quem quer começar a gostar de métodos quantitativos, recomendo o seguinte:

 a) Numb3rs – Trata-se de uma série de investigação que passou na televisão a cabo brasileira e foi lançada no mercado de vídeo. Em cada episódio, o FBI estava diante de um problema e um grande matemático ajudava o Bureau. Em cada episódio, pelo menos um novo método. Nos Estados Unidos a série era acompanhada de um material didático, com aplicações e exercícios. Mas mesmo sem esta ajuda, é muito interessante acompanhar os irmãos Eppes nas aventuras da série.

 b) Último Teorema de Fermat – Este livro, de Simon Singh, conta a história da prova, feita por um inglês, do último teorema de Fermat.

 c) O Teorema do Papagaio – É um livro de ficção, de Denis Guedj, também sobre o Teorema de Fermat. É um pouco longo, mas também é didático.

 d) Uma Senhora Toma Chá – Também um livro didático, sobre a história da estatística.

 e) O Andar do Bêbado – Achei que este livro não deu o devido destaque aos fatos mais recentes. Mesmo assim, é bem escrito e didático

 f) O Homem que Calculava – Já estava cometendo uma injustiça, esquecendo de citar Malba Tahan. O homem que calculava é um livro mais juvenil, mas muito interessante. Quem já leu este livro e não gostou?

08 fevereiro 2011

Santos e Santificação

Robert Barro é um dos economistas mais famosos da atualidade. Sua última pesquisa é sobre santos e santificação. Barro, em conjunto com Rachel McCleary, analisa (Saints Marching In, 1590-2009) o processo de santificação, que ocorre em dois estágios: a beatificação e a canonização. Barro e McCleary estudaram o processo desde 1590 encontraram que a taxa de canonização depende do número de candidatos. Além disto, desde 1900, o processo parece refletir uma resposta da Igreja à concorrência do protestantismo.

13 dezembro 2010

Contador: Verbal ou Quantitativo?

Várias vezes, quando falei que sou professor de contabilidade, ouvi observações das pessoas sobre o fato do curso ser “quantitativo”. Entretanto, na minha experiência como professor, tenho notado que os alunos são avessos aos números. Por outro lado, os contadores geralmente possuem uma capacidade de expressão abaixo da média. Em ambientes com muitas pessoas, os contadores geralmente são tímidos.

Todas estas observações são empíricas e não podem ser comprovadas. Ou será que podem? Descobri um estudo comparativo entre diversas profissões, usando três escalas: quantitativa, verbal e escrita. Antes de continuar, é preciso fazer uma ressalva de que este estudo foi realizado no exterior, podendo não refletir o

Apesar de o estudo usar três dimensões, a relação entre a escrita e a habilidade verbal foi tão significativa (0,81) que as conclusões podem ser resumidas para duas escalas: a habilidade de lidar com os números e a habilidade de lidar com a expressão. As notícias não são boas para os contadores.

O primeiro gráfico mostra a relação entre o quantitativo e o verbal. O contador (“accounting”) está no menor nível da habilidade verbal – é isto mesmo – e no nível intermediário da habilidade quantitativa. Já os filósofos possuem uma grande capacidade verbal e uma capacidade quantitativa acima do contador.


O segundo gráfico mostra a relação entre a escrita e a habilidade quantitativa. Os resultados estão próximos ao obtido no gráfico anterior, já que a relação entre escrita e verbal é muito elevada. Observe o contador na parte de baixo do gráfico, em razão da péssima avaliação da escrita.


O autor do texto afirma que “os filósofos são os humanistas mais inteligentes, os físicos são os cientistas mais inteligentes e os economistas são os cientistas sociais mais inteligentes.

Leia mais: Verbal vs. mathematical aptitude in academics, Discover, 10 dez 2010

17 agosto 2009

Métodos Quantitativos no Ensino de Contabilidade

O objetivo deste estudo é analisar o interesse e a atitude de estudantes de cursos de graduação em Contabilidade pela área de métodos quantitativos. Por meio de uma revisão da literatura, foram enunciadas quatro hipóteses sobre como as dimensões de atitude influenciam o interesse dos estudantes. Desenvolveu-se um estudo de campo com dados coletados junto a 144 estudantes de instituições de ensino superior de Fortaleza. Os dados foram avaliados através de análise descritiva e da técnica de análise de regressão. Observou-se que os estudantes de Contabilidade não demonstraram uma atitude entusiasmada em relação às disciplinas de métodos quantitativos. Quanto às hipóteses, verificou-se que o interesse dos estudantes é positivamente influenciado pela suas percepções de importância e autoconfiança, e é negativamente influenciado pela percepção de dificuldade da área. Procedeu-se a uma análise comparativa com a área de Administração, tendo-se verificado que os estudantes de Contabilidade sentem-se mais seguros quanto ao domínio de habilidades, percebem uma maior importância na área e tem um nível de autoconfiança mais elevado, em relação aos estudantes de Administração. Acredita-se que o estudo pode contribuir para instituições de ensino e professores aprimorarem o processo de formação de profissionais da contabilidade.


UMA ANÁLISE DA ATITUDE E DO INTERESSE DOS ESTUDANTES DE CONTABILIDADE QUANTO À ÁREA DE MÉTODOS QUANTITATIVOS, de Francisco José da Costa, Anderson Queiroz Lemos, Elias Pereira Lopes Júnior e Rodolfo Jakov Saraiva Lôbo, todos da Universidade Estadual do Ceará.

Talvez o problema do ensino de métodos quantitativos em contabilidade esteja no distanciamento entre as noções aprendidas em estatística e matemática, geralmente disciplinas ministradas por estatísticos e matemáticos, da realidade do profissional. Além disto, em disciplinas onde os métodos quantitativos podem ser aprofundados e exemplificados, o professor não está preparado para isto. É o caso de auditoria, geralmente ensinada sem nenhum vínculo com a construção de uma amostragem. O resultado é que o aluno não sabe para que serve métodos quantitativos, descobrindo sua importância no mestrado.

24 julho 2008

Dados em Excesso, Teoria e Ciência



A existência de dados em excesso (e a fácil disponibilidade dos mesmos através da internet) aliada à existência de softwares estatísticos tem transformado a ciência moderna. E isso também é perceptível nas pesquisas contábeis, onde os dados sobre comportamento dos preços das ações no mercado acionário, além das informações contábeis dos relatórios trimestrais das empresas abertas, têm sido usados exaustivamente. É muito comum a construção de pesquisas onde os autores apresentam uma técnica de tratamento dos dados, geralmente análise multivariada, testam em dados empíricos e chegam a resultados estatísticos. Mas parece que falta algo importante: a teoria ou o modelo que permitiria a explicação do estudo. É o quantitativo pelo quantitativo.

Tenho tido oportunidade de analisar muitos trabalhos nos últimos anos e esse problema tem sido comum. Mas seria que isso é realmente uma ciência? Seria possível construir modelos teóricos dessa forma? Mais ainda, os modelos teóricos são necessários? Basicamente podemos afirmar que nesse novo mundo a diferença entre correlação estatística e causação é muito tênue.

Leia mais sobre esse assunto neste texto do blog Academic Producitivity.com. Chris Anderson, autor do livro sobre Cauda Longa, em The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, comenta o fim dos modelos. Anderson afirma de forma contundente: a abordagem de ciência com hipotese, modelo e teste está tornando-se obsoleta. No mundo dos dados, “correlação é suficiente”.

We can stop looking for models. We can analyze the data without hypotheses about what it might show. We can throw the numbers into the biggest computing clusters the world has ever seen and let statistical algorithms find patterns where science cannot.