Translate

11 outubro 2014

Teste da semana

Este é um teste para verificar se o leitor está atento ao que foi notícia sobre a contabilidade:

1 – Esta entidade pretende acompanhar as negociações dos gestores das empresas de capital aberto nos 15 dias anteriores a divulgação dos balanços

Comissão de Valores Mobiliários
Comunidade Europeia
Securities and Exchange Commission

2 – Esta grande empresa anunciou esta semana sua cisão, criando duas empresas

HP
IBM
PepsiCo

3 – O Brasil avisou que não irá implantar um acordo de troca de informações dos bancos com

G20
Interpol
Onu

4 - O assunto do acordo da questão anterior está relacionado com

Comércio de armas
Evasão fiscal
Terrorismo

5 – Além de efeitos sobre a saúde, incluindo o stress, este evento afeta os mercados acionários:

Copa do Mundo
Horário de Verão
Resultado do Corinthians

6 – Um dos ganhadores do Nobel desta semana recebeu $600 dólares por seu trabalho, que é de propriedade intelectual da empresa onde trabalhava. Mas o valor estimado das aplicações é de bem maior. Qual o valor?

64 bilhões de euros
6.400 euros
6,4 milhões de euros

7 – O FMI divulgou as maiores economias do mundo. Em dólares ajustados pela paridade, as três maiores economias do mundo são, exceto

China
Estados Unidos
Japão

8 – Qual a posição do Brasil entre as maiores economias do mundo

10º.
3º.
7º.

Respostas: 1) CVM; 2) HP; 3) G20; 4) Evasão; 5) Horário de verão; 6) 64 bi; 7) Japão; 8) 7ª.

Acertou 8? = Superior; 6 e 7 = mediano superior; 4 e 5 = mediano inferior.

Poder da Estatística Bayesiana


Statistics may not sound like the most heroic of pursuits. But if not for statisticians, a Long Island fisherman might have died in the Atlantic Ocean after falling off his boat early one morning last summer.

The man owes his life to a once obscure field known as Bayesian statistics — a set of mathematical rules for using new data to continuously update beliefs or existing knowledge.

The method was invented in the 18th century by an English Presbyterian minister named Thomas Bayes — by some accounts to calculate the probability of God’s existence. In this century, Bayesian statistics has grown vastly more useful because of the kind of advanced computing power that did not exist even 20 years ago.

It is proving especially useful in approaching complex problems, including searches like the one the Coast Guard used in 2013 to find the missing fisherman, John Aldridge (though not, so far, in the hunt for Malaysia Airlines Flight 370).

Now Bayesian statistics are rippling through everything from physics to cancer research, ecology to psychology. Enthusiasts say they are allowing scientists to solve problems that would have been considered impossible just 20 years ago. And lately, they have been thrust into an intense debate over the reliability of research results.
Thomas Bayes

When people think of statistics, they may imagine lists of numbers — batting averages or life-insurance tables. But the current debate is about how scientists turn data into knowledge, evidence and predictions. Concern has been growing in recent years that some fields are not doing a very good job at this sort of inference. In 2012, for example, a team at the biotech company Amgen announced it had analyzed 53 cancer studies and found it could not replicate 47 of them.

Similar follow-up analyses have cast doubt on so many findings in fields such as neuroscience and social science that researchers talk about a “replication crisis”

Some statisticians and scientists are optimistic that Bayesian methods can improve the reliability of research by allowing scientists to crosscheck work done with the more traditional or “classical” approach, known as frequentist statistics. The two methods approach the same problems from different angles.

The essence of the frequentist technique is to apply probability to data. If you suspect your friend has a weighted coin, for example, and you observe that it came up heads nine times out of 10, a frequentist would calculate the probability of getting such a result with an unweighted coin. The answer (about 1 percent) is not a direct measure of the probability that the coin is weighted; it’s a measure of how improbable the nine-in-10 result is — a piece of information that can be useful in investigating your suspicion.

By contrast, Bayesian calculations go straight for the probability of the hypothesis, factoring in not just the data from the coin-toss experiment but any other relevant information — including whether you have previously seen your friend use a weighted coin.

Scientists who have learned Bayesian statistics often marvel that it propels them through a different kind of scientific reasoning than they had experienced using classical methods.

“Statistics sounds like this dry, technical subject, but it draws on deep philosophical debates about the nature of reality,” said the Princeton University astrophysicist Edwin Turner, who has witnessed a widespread conversion to Bayesian thinking in his field over the last 15 years.

Countering Pure Objectivity

Frequentist statistics became the standard of the 20th century by promising just-the-facts objectivity, unsullied by beliefs or biases. In the 2003 statistics primer “Dicing With Death,” Stephen Senn traces the technique’s roots to 18th-century England, when a physician named John Arbuthnot set out to calculate the ratio of male to female births.

Arbuthnot gathered christening records from 1629 to 1710 and found that in London, a few more boys were recorded every year. He then calculated the odds that such an 82-year run could occur simply by chance, and found that it was one in trillions. This frequentist calculation can’t tell them what is causing the sex ratio to be skewed. Arbuthnot proposed that God skewed the birthrates to balance the higher mortality that had been observed among boys, but scientists today favor a biological explanation over a theological one.

Later in the 1700s, the mathematician and astronomer Daniel Bernoulli used a similar technique to investigate the curious geometry of the solar system, in which planets orbit the sun in a flat, pancake-shaped plane. If the orbital angles were purely random — with Earth, say, at zero degrees, Venus at 45 and Mars at 90 — the solar system would look more like a sphere than a pancake. But Bernoulli calculated that all the planets known at the time orbited within seven degrees of the plane, known as the ecliptic.

What were the odds of that? Bernoulli’s calculations put them at about one in 13 million. Today, this kind of number is called a p-value, the probability that an observed phenomenon or one more extreme could have occurred by chance. Results are usually considered “statistically significant” if the p-value is less than 5 percent.Photo
The Coast Guard, guided by the statistical method of Thomas Bayes, was able to find the missing fisherman John Aldridge.CreditDaniel Shea

But there is a danger in this tradition, said Andrew Gelman, a statistics professor at Columbia. Even if scientists always did the calculations correctly — and they don’t, he argues — accepting everything with a p-value of 5 percent means that one in 20 “statistically significant” results are nothing but random noise.

The proportion of wrong results published in prominent journals is probably even higher, he said, because such findings are often surprising and appealingly counterintuitive, said Dr. Gelman, an occasional contributor to Science Times.

Looking at Other Factors

Take, for instance, a study concluding that single women who were ovulating were 20 percent more likely to vote for President Obama in 2012 than those who were not. (In married women, the effect was reversed.)
Continue reading the main story

Dr. Gelman re-evaluated the study using Bayesian statistics. That allowed him to look at probability not simply as a matter of results and sample sizes, but in the light of other information that could affect those results.

He factored in data showing that people rarely change their voting preference over an election cycle, let alone a menstrual cycle. When he did, the study’s statistical significance evaporated. (The paper’s lead author, Kristina M. Durante of the University of Texas, San Antonio, said she stood by the finding.)

Dr. Gelman said the results would not have been considered statistically significant had the researchers used the frequentist method properly. He suggests using Bayesian calculations not necessarily to replace classical statistics but to flag spurious results.

A famously counterintuitive puzzle that lends itself to a Bayesian approach is the Monty Hall problem, in which Mr. Hall, longtime host of the game show “Let’s Make a Deal,” hides a car behind one of three doors and a goat behind each of the other two. The contestant picks Door No. 1, but before opening it, Mr. Hall opens Door No. 2 to reveal a goat. Should the contestant stick with No. 1 or switch to No. 3, or does it matter?

A Bayesian calculation would start with one-third odds that any given door hides the car, then update that knowledge with the new data: Door No. 2 had a goat. The odds that the contestant guessed right — that the car is behind No. 1 — remain one in three. Thus, the odds that she guessed wrong are two in three. And if she guessed wrong, the car must be behind Door No. 3. So she should indeed switch.

In other fields, researchers are using Bayesian statistics to tackle problems of formidable complexity. The New York University astrophysicist David Hogg credits Bayesian statistics with narrowing down the age of the universe. As recently as the late 1990s, astronomers could say only that it was eight billion to 15 billion years; now, factoring in supernova explosions, the distribution of galaxies and patterns seen in radiation left over from the Big Bang, they have concluded with some confidence that the number is 13.8 billion years.

Bayesian reasoning combined with advanced computing power has also revolutionized the search for planets orbiting distant stars, said Dr. Turner, the Princeton astrophysicist.

In most cases, astronomers can’t see these planets; their light is drowned out by the much brighter stars they orbit. What the scientists can see are slight variations in starlight; from these glimmers, they can judge whether planets are passing in front of a star or causing it to wobble from their gravitational tug.Photo
Andrew Gelman, a statistics professor at Columbia, says the Bayesian method is good for flagging erroneous conclusions. CreditJingchen Liu

Making matters more complicated, the size of the apparent wobbles depends on whether astronomers are observing a planet’s orbit edge-on or from some other angle. But by factoring in data from a growing list of known planets, the scientists can deduce the most probable properties of new planets.

One downside of Bayesian statistics is that it requires prior information — and often scientists need to start with a guess or estimate. Assigning numbers to subjective judgments is “like fingernails on a chalkboard,” said physicist Kyle Cranmer, who helped develop a frequentist technique to identify the latest new subatomic particle — the Higgs boson.


Others say that in confronting the so-called replication crisis, the best cure for misleading findings is not Bayesian statistics, but good frequentist ones. It was frequentist statistics that allowed people to uncover all the problems with irreproducible research in the first place, said Deborah Mayo, a philosopher of science at Virginia Tech. The technique was developed to distinguish real effects from chance, and to prevent scientists from fooling themselves.

Uri Simonsohn, a psychologist at the University of Pennsylvania, agrees. Several years ago, he published a paper that exposed common statistical shenanigans in his field — logical leaps, unjustified conclusions, and various forms of unconscious and conscious cheating.

He said he had looked into Bayesian statistics and concluded that if people misused or misunderstood one system, they would do just as badly with the other. Bayesian statistics, in short, can’t save us from bad science.

At Times a Lifesaver

Despite its 18th-century origins, the technique is only now beginning to reveal its power with the advent of 21st-century computing speed.

Some historians say Bayes developed his technique to counter the philosopher David Hume’s contention that most so-called miracles were likely to be fakes or illusions. Bayes didn’t make much headway in that debate — at least not directly.

But even Hume might have been impressed last year, when the Coast Guard used Bayesian statistics to search for Mr. Aldridge, its computers continually updating and narrowing down his most probable locations.

The Coast Guard has been using Bayesian analysis since the 1970s. The approach lends itself well to problems like searches, which involve a single incident and many different kinds of relevant data, said Lawrence Stone, a statistician for Metron, a scientific consulting firm in Reston, Va., that works with the Coast Guard.

At first, all the Coast Guard knew about the fisherman was that he fell off his boat sometime from 9 p.m. on July 24 to 6 the next morning. The sparse information went into a program called Sarops, for Search and Rescue Optimal Planning System. Over the next few hours, searchers added new information — on prevailing currents, places the search helicopters had already flown and some additional clues found by the boat’s captain.

The system could not deduce exactly where Mr. Aldridge was drifting, but with more information, it continued to narrow down the most promising places to search.

Just before turning back to refuel, a searcher in a helicopter spotted a man clinging to two buoys he had tied together. He had been in the water for 12 hours; he was hypothermic and sunburned but alive.

Even in the jaded 21st century, it was considered something of a miracle.


Fonte:A version of this article appears in print on September 30, 2014, on page D1 of the New York edition with the headline: The Odds, Continually Updated. Order Reprints|Today's Paper|Subscribe

Crime via Scribd?

Diego Gómez, biólogo e estudante de mestrado está sendo acusado de violação de direitos autorais após ter compartilhado uma dissertação de outro pesquisador no Scribd. O estudante colombiano, que trabalha com biodiversidade de anfíbios, em uma carta aberta, alegou que desde o início de seus estudos teve muita dificuldade em encontrar material adequado que pudesse ser utilizado como referência. Segundo o estudante, sem poder contar com o auxílio de um especialista em herpetologa na sua instituição, foram necessárias várias viagens a museus e outras instituições e busca de materiais na internet, até encontrar uma dissertação (sobre identificação de anfíbios e répteis) que julgou importante para seu trabalho.

Em 2010, Diego compartilhou o arquivo no Scribd “pensando ser algo do interesse de outros grupos de pesquisa e tentando evitar os esforços de ter de ir a Bogotá para acessar o documento”, segundo o próprio estudante. Entretanto, em 2011 o Scribd alterou sua política de acesso e passou a cobrar $5 por download para usuários não registrados. Diego então retirou o material do site, mas o autor da dissertação já havia informado as autoridade colombianas e, em abril de 2013, entrou com um processo por violação dos direitos autorais e econômicos, crime pelo qual o estudante pode ser preso por 4 a 8 anos.

O caso trouxe à tona novamente a discussão sobre como as leis de direitos autorais são aplicadas no contexto de pesquisa científica. Não demorou muito para que organizações se manifestassem quanto ao assunto e a repercussão tomou as redes sociais nas últimas semanas. Em pouco tempo as frases Share is not a crime e Compartir no es delito foram compartilhadas por pessoas e entidades que defendem a Ciência Aberta.

A Fundacíon Karisma apoiou o estudante abertamente, por julgar que “o caso de Diego mostra que as atuais leis desconhecem as transformações geradas pela internet ao se aplicar leis criadas há décadas, levando em conta apenas as necessidades de proteção e a lógica de mercado”. Os defensores do estudante alegam ainda que ele “publicou o artigo na internet com a intenção de apoiar outros herpetologistas na identificação de anfíbios e répteis para conservação e não para obter algum ganho”.

Maira Sutton, analista do Electronic Frontier Foundation, uma organização que defende os direitos de liberdade civil na internet, disse que Diego é acusado de infringir uma lei de 2006. A analista critica a lei, pelo fato de a mesma ter sido criada em um acordo com os Estados Unidos, seguindo as mesmas normas e penalidades aplicadas na lei americana, sem, contudo, haver exceções e limitações para compartilhamento de material científico. Maira Sutton aponta, ainda, que a legislação colombiana prevê como exceções uma lista pensada há mais de 20 anos, quando a internet ainda não era uma realidade.

Diego afirmou que se surpreende que “o que é indispensável para as atividades científicas (compartilhamento do conhecimento) possa ser considerado um crime e que a pesquisa e o conhecimento gerados obedeçam à lógica de mercado e sejam analisados como um software ou uma obra artística para exploração comercial”. Em apoio, Maira Sutton afirmou que “é necessária uma reforma legislativa para assegurar que pessoas não sejam tratadas como criminosas por promover o progresso científico e exercer a expressão criativa”.

O julgamento, que estava previsto para o final de agosto, foi adiado. Os advogados de Diego estão confiantes que o estudante seja inocentado por não ter tentado se beneficiar do compartilhamento e por ter dado os devidos créditos ao autor da dissertação, já que a legislação colombiana para este tipo de crime leva em consideração a intenção do autor do delito.

Por Giovani de Oliveira Arieira - PosGraduando.com

Formulário de referência

A Comissão de Valores Mobiliários (CVM) divulgou a Instrução CVM nº 552/14, que altera a Instrução CVM nº 480/09, sobre o "registro de emissores de valores mobiliários admitidos à negociação em mercados regulamentados de valores mobiliários".

A nova norma atualiza alguns dos dispositivos do formulário de referência, previsto na Instrução CVM nº 480/09, fazendo ajustes para racionalizar e aprimorar a prestação de informações pelas companhias. 

Fonte: Aqui

10 outubro 2014

Rir é o melhor remédio






Fonte: Aqui

Curso de Contabilidade Básica: Imposto

Já virou senso comum afirmar que se paga muito imposto no Brasil. Mas como isto aparece nas demonstrações contábeis? Existem quatro locais onde é possível obter alguma informação sobre o peso dos impostos para uma empresa. Vamos exemplificar usando o caso da J. Macedo, uma empresa na área de farinha de trigo e derivados.

O primeiro é no balanço patrimonial. Geralmente no passivo da empresa é possível encontrar contas como Imposto a Pagar. Aqui a informação é sobre o montante da dívida com o fisco. Mas também é possível encontrar uma conta deste tipo do lado do ativo, conforme já discutimos em postagem anterior. Veja na figura a seguir o caso da J. Macedo, onde existia dívida de 11,8 milhões de curto prazo e outros 5,8 milhões de longo prazo. Este é o valor da dívida no encerramento do trimestre.


Segundo, é na demonstração do resultado do exercício. Nesta demonstração será apresentado o valor dos impostos no período. Observe o caso da J. Macedo, novamente.

A empresa apurou um imposto de renda e contribuição social de R$3,9 milhões. Mas atenção: a demonstração não mostra os impostos sobre vendas. Para isto, algumas empresas usam as notas explicativas.

O terceiro local onde é possível obter a informação sobre os impostos é na Demonstração dos Fluxos de Caixa. Se a empresa utiliza o método indireto, a informação que estará presente é somente a variação da conta de impostos a pagar. Este é o caso da J. Macedo. O que isto significa? Que ocorreu um aumento ou redução na conta patrimonial. Se a empresa usasse o método direto seria possível identificar o valor pago de impostos.

O quarto local é na demonstração do valor adicionado. Aqui a informação seria: do que foi adicionado pela empresa, quanto ficou para o governo? Eis a informação da J. Macedo:

Aqui a empresa está informando que dos 222,9 milhões de valor adicionado, 92,9 milhões foram para os impostos, sendo 53,2 milhões para os estados.

Resumindo temos o seguinte:



Um debate necessário


Por Gustavo Loyola

A campanha eleitoral colocou na berlinda a questão da independência do Banco Central. Lamentavelmente, graças à empulhação perpetrada por um marketing político da pior espécie, o debate sobre esse importante tema descambou para o terreno do deboche e da sordidez.
A independência (ou autonomia) do Banco Central é característica dos países democráticos e institucionalmente avançados. Ao contrário do que o marqueteiro oficial quer fazer crer, a independência do BC protege a instituição de pressões espúrias e permite o exercício mais efetivo e transparente de suas funções de preservação do poder de compra da moeda e da estabilidade financeira. Aliás, a ideia de que a independência do BC é contrária aos princípios democráticos é apenas um dos muitos equívocos que permeiam a discussão do assunto no Brasil nas últimas décadas.
A necessidade da independência dos bancos centrais tem sido colocada no contexto da própria natureza da política monetária, cujos resultados ocorrem somente depois de decorrido um prazo razoável de tempo da sua execução. A influência benéfica da política monetária sobre os preços e o produto aflora com certa demora, havendo um período de tempo em que seus efeitos não são perceptíveis, embora seus custos já estejam sendo plenamente sentidos pela sociedade. Por causa disso, os bancos centrais ficam sujeitos a pressões das lideranças políticas e da opinião pública para utilizar indevidamente seus instrumentos de política monetária, abandonando objetivos de longo prazo em favor de ganhos passageiros e ilusórios de curto prazo.

Além disso, a independência do BC protege a política monetária de pressões naturais relacionadas aos ciclos eleitorais, já que há sempre a tentação de utilizá-la para gerar episódios efêmeros de crescimento, com vistas à coleta de benefícios políticos imediatos. Vale ressaltar que a independência formal não impede de forma absoluta que o BC seja utilizado com fins eleitorais, mas torna transparente qualquer tentativa de fazê-lo.

A independência dos bancos centrais viria como resposta a esses riscos. Isoladas das pressões políticas por resultados de curto prazo, essas instituições podem se dedicar a seus objetivos de forma mais eficiente e eficaz, sendo esta a razão pela qual se atribui mandatos estáveis e relativamente longos aos dirigentes dos bancos centrais.

Uma crítica frequente à independência dos bancos centrais costuma compará-la ao estabelecimento de um “quarto poder”, que se tornaria fonte de dificuldades para a condução das políticas públicas, mormente da política econômica. Trata-se, obviamente, de uma leitura equivocada. A autonomia do BC é sempre outorgada em caráter precário pelo Congresso Nacional, que é a verdadeira fonte do poder. O estatuto de independência do BC pode ser revogado a qualquer momento e sua autonomia é exercida sobre um terreno extremamente restrito e sujeito a fortes restrições, inclusive no que concerne à prestação de contas e a responsabilização perante o Executivo e o Legislativo.
Desse modo, do ponto de vista político, a independência do Banco Central aumenta o controle da sociedade sobre a instituição, na medida em que suas ações se tornam mais transparentes e seus dirigentes passam a prestar contas regularmente à sociedade por meio do Poder Legislativo. Dar mandatos a seus dirigentes não os desobriga da prestação de contas à sociedade e nem lhes confere estabilidade absoluta em seus cargos.

No Brasil, sob o ponto de vista institucional, resta pouco para que seja conferida a independência legal ao Banco Central. Os avanços das últimas décadas formaram um quadro em que é possível a existência de uma autoridade monetária formalmente independente. A Constituição de 1988 proíbe expressamente o financiamento do Tesouro pelo Banco Central e veda sua atuação como banco de fomento, assim como impõe a necessidade de aprovação prévia dos nomes de seus dirigentes pelo Senado Federal. Por outro lado, a Lei de Responsabilidade Fiscal e outras normas legais estabeleceram uma moldura adequada disciplinando o relacionamento entre o Tesouro e o Banco Central.

Dessa maneira, o que falta basicamente para a independência do BC é a atribuição de mandatos para seus dirigentes e a formalização de mecanismos de coordenação e de solução de conflitos entre a instituição e o Tesouro, especialmente nos campos da política cambial e de reservas internacionais.
Vale ressaltar que o próprio regime de metas de inflação já explicita que o BC teria independência “de instrumentos” e não a “de objetivos”, pois a meta de inflação não seria fixada pela instituição, mas sim por outra instância de governo. Por outro lado, como órgão regulador e supervisor bancário, a questão da autonomia do BC não seria estranha ao ambiente legal brasileiro, uma vez que outros reguladores – como é o caso da CVM – já adquiriram esse status.

Fonte: Valor Econômico, 06/10/2014.