Translate

09 abril 2019

Austeridade Fiscal: quando funciona?

[...]
At the moment the consensus among economists seems to be that governments need to approach any fiscal consolidation with caution since they risk disrupting economic growth or making a recession worse, and should take care to balance spending cuts with tax increases. This book argues this approach is a mistake.

The authors think that the evidence of various austerity programmes over the last four decades suggests that the negative impact of economic austerity on growth has been exaggerated. While tax hikes can indeed be bad for the economy, cuts in public spending can actually boost economic growth, by increasing confidence among investors that spending is under control. What’s more, austerity is far from the “political kiss of death” that many people believe it to be – voters are willing to back a government with the “courage” to make difficult sacrifices to get a country’s house in order.

[...]


Resultado de imagem para Austerity: When It Works and When It Doesn't

Fonte: aqui

08 abril 2019

Crise da Replicação pode ser bom para a ciência

A discussão sobre a reprodução de pesquisas na ciência tem mostrado que diversos estudos (aqui, por exemplo) realizados no passado, publicados em periódicos científicos de excelência, apresentaram resultados forçados.

Há alguns anos um erro em uma planilha Excel foi descoberto graças a replicação de um trabalho.

Um texto do The Conversation afirma que a “crise da replicação” é boa para ciência. E apresenta diversos argumentos onde o esforço de replicação pode ajudar no progresso científico.

Alguns periódicos agora exigem que os cientistas disponibilizem seus dados e códigos de computador, o que torna mais provável que outros detectem erros em seu trabalho. Além do mais, alguns cientistas podem agora "pré-registrar" suas hipóteses antes de iniciar seu estudo - o equivalente a chamar sua chance antes de começar.

Combinado com o compartilhamento aberto de materiais e dados, o pré-registro melhora a transparência e a reprodutibilidade da ciência, assegurando que uma fração menor de estudos futuros não seja replicada.

Além disto, a discussão pode fazer com que os pesquisadores tenham uma visão melhor sobre os métodos usados. Recentemente, um grupo de cientistas defendeu o abandono da significância estatística.

A incrível possibilidade de que uma grande fração das descobertas de pesquisas publicadas possa ser apenas casual é exatamente o motivo pelo qual as pessoas falam da crise de replicação. Mas não é realmente uma crise científica, porque a consciência está trazendo melhorias na prática de pesquisa, novos entendimentos sobre inferência estatística e uma apreciação de que descobertas isoladas devem ser interpretadas como parte de um padrão maior.

Em vez de minar a ciência, sinto que isso está reafirmando as melhores práticas do método científico.

Estimativas Contábeis via Machine Learning

Resumo:

The progressive migration of financial reporting from the cost basis to fair values has created the need for a wide range of estimates to be included into the process. These values are in general clearly an improvement on obsolete cost based measurements but also create the possibility of self-serving manipulation of critical financial information. This study shows that critical estimates in one particular industry are quite weak and finds that the usage of a set of different algorithms including the ones used in machine learning to predict estimates produces far superior results.
Fonte: Ding, Kexing and Lev, Baruch Itamar and Peng, Xuan and Sun, Ting and Vasarhelyi, Miklos A., On Creating Accounting Estimates using Machine Learning (September 21, 2018). Available at SSRN: https://ssrn.com/abstract=3253220 or http://dx.doi.org/10.2139/ssrn.3253220

[...]

To prove this I teamed up with a great group of ML experts at Rutgers University (Miklos Vasarhelyi, Kexing Ding, Xuan Peng, and Ting Sun). In the first research on the use of ML in accounting, we focus on property & casualty insurance companies. The reason: a major cost item of these companies is the “future loss estimate.” Explanation: For insurance policies written (earned) in a given year, the major cost item are the payments made on insurance claims (car accidents, home damage, etc.). But that’s not the end of the story. People can, and often do claim damages years later, like long-term effects of concussions. So, in addition to claims paid during the insured year, there will be claims to be paid in the future years (“insurance long tails”). Thus, a proper measurement of insurance companies’ earnings requires accounting for both claims paid during the year, and an estimate of future claims― “future loss estimates.” These are generally large estimates having a material effect on insurance companies’ reported earnings. We focus on these estimates in our ML research.

In essence, we conducted a horse-race between managers’ annual loss estimates and the ML predictions of future claims, both compared to the actual claims paid over the subsequent 10 years. Humans, with all their frailties (manipulation) vs. machines, like former world chess champion Gary Kasparov playing against a computer.

[...]

By using ML, you can cut managers’ errors by more than a third! And this is just our initial run of ML predictions. Improvements are coming. (The third row in the table show the impact of one of our predictors―top management compensation. Without this key variable, the average error improvement decreases by 5-10%. Second vs. third rows).

q2

Summarizing, this is the first demonstration of the use of Machine Learning in improving the quality and reliability of financial information. In addition to insurance companies’ loss estimates, ML can be applied to a wide range of managerial accounting estimates, like the bad debt reserve, future payments on warranties, pension estimates, etc., etc. Very promising indeed, leading me to the final figure:

07 abril 2019

Grandes cientistas

Na sua coluna semanal, Fernando Reinach comenta sobre o que seria um grande cientista (grifo nosso):

(...) Recentemente, usando esse método [de mais citações], a Clarivate Analytics elaborou uma lista dos 6.078 melhores cientistas entre os 9 milhões que existem na Terra. E entre os 6.078 estão alguns brasileiros que trabalham aqui na pátria amada. Não aguentei e fui ver quem era o mais citado do Brasil. Encontrei o nome de Álvaro Avezum, um cardiologista do Dante Pazzanese. Ele é o brasileiro com mais citações: 39.593 distribuídas em 237 trabalhos científicos. [Recentemente, o Valor Econômico deu destaque para esta lista, no seu caderno de final de semana]

Mas o que teria descoberto Álvaro Avezum para ser tão citado? Imediatamente fui atrás do seu trabalho científico mais citado. É um trabalho de 2004 publicado na Lancet, uma das melhores revistas científicas do mundo, talvez a melhor da área médica. Esse trabalho teve nada menos que 11.367 citações desde 2004. Para você ter uma ideia, o trabalho de Watson e Crick, publicado em 1953, relata talvez a mais importante descoberta do século 20, a estrutura do DNA. Esse trabalho, que rendeu um Prêmio Nobel aos dois, só acumulou 12.572 citações. Claro que fui ler o tão citado trabalho do brasileiro.

O trabalho é realmente importante. Foi ele que demonstrou que fumar, ter colesterol alto, diabete, sobrepeso e sedentarismo são fatores de risco para doenças cardiovasculares, principalmente enfarte do miocárdio. É com base nele que toda a prevenção de doenças cardiovasculares se baseia. E eu que não sabia que isso havia sido descoberto por um brasileiro! Mas vamos aos detalhes, que é onde o diabo se esconde.

A descoberta que esses fatores aumentam sua chance de enfartar foi feita na Europa bem antes desse trabalho ser iniciado. Mas como a amostra de pacientes só incluía europeus, um grupo de cientistas canadenses decidiu que era preciso estender essa observação para o resto da população mundial e resolveu repetir o estudo. Foi montada uma rede de cardiologistas em 262 centros de pesquisa em 52 países.

O trabalho consistia em selecionar pacientes que aparecessem no hospital sofrendo um enfarte do miocárdio. Para cada paciente era necessário um questionário e amostra de sangue e identificar uma pessoa com características semelhantes que não tivesse enfartado. O estudo coletou dados de 15.152 pacientes e 14.820 controles. Após longa análise, os canadenses concluíram que os resultados dos pacientes europeus valiam para todos.

Como esse trabalho envolveu médicos de todo o mundo, o número de autores no trabalho é enorme: são 415. Entre eles estão 19 brasileiros, e entre os brasileiros está Álvaro Avezum, que coordenou as atividades no Brasil. Mas qual foi a contribuição? Entre fevereiro de 1999 e março de 2003, eles enviaram dados de brasileiros para o Canadá. Cada um dos 19 cientistas brasileiros enviou dados de dois pacientes por mês, em média. Foi essa a contribuição brasileira.

É claro que essa não é a mais importante descoberta da ciência brasileira. Recentemente, um matemático do Rio ganhou a medalha Fields – o prêmio de matemática mais importante do Mundo. Esses 19 brasileiros colaboraram em um trabalho científico que se tornou importante, é verdade e louvável. Mas dizer que essa é a mais importante descoberta do mais importante cientista brasileiro é claramente um erro crasso de julgamento. Se realmente queremos avaliar cientistas de maneira justa vamos ter que voltar ao básico: grande cientista é quem faz grande descoberta e para isso é necessário entender a descoberta, sua importância e a contribuição do autor.

Outra situação interessante: um dos autores mais citados é Gujarati. O que fez ele? Escreveu um excelente de estatística. Muitos trabalhos científicos citam Gujarati para sustentar suas escolhas nos métodos.

O que realmente deveríamos estudar na escola



Vimos a dica do vídeo no Instagram @conversacontabil.

No vídeo ela comenta que geralmente uma família elege uma pessoa para declarar o imposto de renda de todo mundo. Alguém se identifica?

Eu achei engraçado e ri um pouco da confusão...


Rir é o melhor remédio


06 abril 2019

Os grandes problemas do Deep Learning


Here’s my view: deep learning really is great, but it’s the wrong tool for the job of cognition writ large; it’s a tool for perceptual classification, when general intelligence involves so much more. What I was saying in 2012 (and have never deviated from) is that deep learning ought to be part of the workflow for AI, not the whole thing (“just one element in a very complicated ensemble of things”, as I put it then, “not a universal solvent, [just] one tool among many” as I put it in January). Deep learning is, like anything else we might consider, a tool with particular strengths, and particular weaknesses. Nobody should be surprised by this.

Deep learning is important work, with immediate practical applications.

Realistically, deep learning is only part of the larger challenge of building intelligent machines. Such techniques lack ways of representing causal relationships (such as between diseases and their symptoms), and are likely to face challenges in acquiring abstract ideas like “sibling” or “identical to.” They have no obvious ways of performing logical inferences, and they are also still a long way from integrating abstract knowledge, such as information about what objects are, what they are for, and how they are typically used. The most powerful A.I. systems … use techniques like deep learning as just one element in a very complicated ensemble of techniques, ranging from the statistical technique of Bayesian inference to deductive reasoning.

[...]

At that time I concluded in part that (excerpting from the concluding summary argument):
Humans can generalize a wide range of universals to arbitrary novel instances. They appear to do so in many areas of language (including syntax, morphology, and discourse) and thought (including transitive inference, entailments, and class-inclusion relationships).

Advocates of symbol-manipulation assume that the mind instantiates symbol-manipulating mechanisms including symbols, categories, and variables, and mechanisms for assigning instances to categories and representing and extending relationships between variables. This account provides a straightforward framework for understanding how universals are extended to arbitrary novel instances.

Current eliminative connectionist models map input vectors to output vectors using the back-propagation algorithm (or one of its variants).

To generalize universals to arbitrary novel instances, these models would need to generalize outside the training space.

These models cannot generalize outside the training space.
Therefore, current eliminative connectionist models cannot account for those cognitive phenomena that involve universals that can be freely extended to arbitrary cases.


Resultado de imagem para Deep Learning overrated