Translate

19 julho 2024

Contabilidade, fraude e IA

O estudo da fraude na contabilidade é extremamente importante. Na obra seminal da contabilidade, publicada no final dos anos 1400, há uma lição relevante:

Infelizmente, há muitos que mantêm seus livros em duplicata, mostrando um ao comprador e outro ao vendedor. O que é pior, juram e cometem perjúrio sobre eles. Como agem mal! No entanto, se precisarem apresentar seus livros a um oficial [para autenticação] (como os cônsules a serviço da cidade de Perosa), não podem mentir e fraudar tão facilmente.

Pacioli, o autor deste texto, já antecipava que a fraude seria um problema para a contabilidade. Muitas pessoas acreditavam que a partida dobrada seria uma solução eficaz para evitar fraudes. Em 1839, um autor afirmou:

a contabilidade por partida simples é essencialmente defeituosa, pois não oferece método para determinar o estado dos negócios de um comerciante sem fazer um inventário - uma tarefa que é tanto trabalhosa quanto suscetível a erros e que, na melhor das hipóteses, não oferece meios adequados para prevenir desfalques ou detectar fraudes; mas esses objetivos são alcançados pela partida dobrada, talvez tão eficazmente quanto a engenhosidade humana pode conceber

(ambos citados em An Accounting Thesaurus 500 Years of Accounting de Chambers)

No entanto, sabemos que a partida dobrada não resolveu o problema da fraude, como Pacioli já sabia. Mas será que a Inteligência Artificial (IA) pode ser uma ferramenta útil? Antes de responder, é interessante notar que a fraude é, em essência, o estudo da mentira. Sociedades antigas usavam a tortura para detectar mentiras. Por exemplo, na Idade Média, acreditava-se que pessoas honestas suportariam melhor a dor da água fervente do que os mentirosos. No final do século XIX, imaginou-se que mudanças na pressão arterial poderiam ser usadas para detectar mentiras. Isso levou ao desenvolvimento do polígrafo no início do século XX, que mede a pressão arterial e a respiração para detectar mentiras. Você provavelmente já viu um polígrafo em filmes ou séries de TV, onde a máquina é usada para tentar descobrir se alguém está mentindo.



Mas a primeira linha do verbete da Wikipedia não deixa dúvidas:

Um polígrafo, frequentemente referido incorretamente como um teste de detector de mentiras, é uma pseudociência.

Se as partidas dobradas não resolveram o problema da fraude, os autores do final do século XIX e início do século XX pensavam que a auditoria poderia ser a solução. Havia diversos autores que afirmavam que essa seria a principal função da atividade e há muitas citações nesse sentido. A auditoria não só falhou em resolver o problema, como nos últimos anos também tem resistido a assumir essa função.

Os estudiosos passaram a procurar um detector de mentiras nos números contábeis. Supunha-se que os mentirosos tentariam alterar os balanços e outras demonstrações. Para isso, um conjunto de técnicas multivariadas, desenvolvidas em áreas como a genética, foram usadas na tentativa de encontrar o polígrafo. Uma dessas técnicas era a análise discriminante, que usa basicamente dados históricos de empresas boas e ruins para construir uma equação. A ideia era aplicar essa equação às empresas para classificá-las, conforme o resultado, em um desses grupos. Esta técnica é a base dos modelos de Altman e Kanitz, que ainda são utilizados hoje.

Há uma série de problemas com esse detector de mentiras, mas vamos nos concentrar em dois deles. O primeiro é que as técnicas dependem de casos que já ocorreram. Se o que o modelo tenta prever se repetir no presente e no futuro, a técnica ainda é válida. Mas nada garante que isso funcione, já que muitos dos modelos foram construídos há muito tempo. O modelo de Altman, por exemplo, foi divulgado no final dos anos sessenta, há 60 anos, com dados do final dos anos cinquenta e início dos anos sessenta. Se aquela realidade ainda for válida para os dias de hoje, você pode usar o modelo sem problemas. Mas o bom senso nos leva a desconfiar que talvez não seja o caso de continuar usando esses modelos antigos.

O segundo problema é que os mentirosos muitas vezes sabem qual ferramenta você está usando. Para contornar isso, a contabilidade fraudulenta deve evitar prejudicar certos índices que compõem os modelos de falência, como o Altman. Como construir seu próprio índice exige conhecimento técnico e uma amostra adequada, muitas pessoas se limitam a calcular os índices e esperam que sejam uma boa medida.

Nas últimas décadas ferramentas mais sofisticadas começaram a aparecer. Os pesquisadores passaram a estudar o vocabulário usado pelas pessoas – no caso, os executivos das empresas, a maneira como expressam seus sentimentos e outros sinais sutis. Há uma crença generalizada que quando uma pessoa mente, ela desvia o seu olhar. Mas os pesquisadores descobriram que pode ser exatamente o oposto: quando uma pessoa mente, ela olha para as pessoas para sentirem se a mentira foi bem aceita. Imagine uma reunião de negócios e o executivo de uma empresa diz para um representante de uma instituição bancária que a empresa está indo muito bem e que isto seja uma mentira. Sabendo dos sinais de um mentiroso transmite, o olhar do executivo para o representante do banco pode ser um detector de mentira.

Esse pequeno exemplo ocorre em escala diferente com documentos técnicos elaborados por uma empresa, como uma demonstração contábil. Uma empresa que começa a falar muito das condições externas no relatório de administração parece ser um sinal de que algo vai mal; se atrasa a divulgação, mais um sinal; se muda o auditor sem uma justificativa, devemos desconfiar; se escolhe o figurão para compor o comitê de auditoria, em lugar da técnica com sólidos conhecimentos contábeis, adicione mais desconfiança; e assim por diante.

É neste sentido que a inteligência artificial surge, com uma promessa de aumentar nossas chances de antecipar as falcatruas. É o mais novo teste de polígrafo, que ajudaria a separar notícias falsas, detectar mentiras na contabilidade, entre outras. Ou seja, a inteligência artificial seria a nova arma contra fraude.

Quando falamos de comunicação textual, realmente a IA pode processar uma grande quantidade de informação, sendo possível desenvolver um instrumento de análise bem mais rápida. Quando falamos sobre a comunicação verbal, como de um executivo em uma conferência da impressa, já temos instrumentos técnicos para fazer uma análise, mas talvez não tão confiável quanto a análise textual.

Mas a IA é um instrumento como outro qualquer. Eu posso usar uma análise discriminante que classifica uma empresa como ruim, mas mesmo assim o ser humano responsável pela decisão irá investir ou conceder crédito, por uma série de outras razões. Da mesma forma, eu posso ter uma ferramenta de IA que detecta mentira e mesmo assim não saber usá-la ou fazer de forma inadequada.

Vejamos o limite do uso da IA através de um estudo recente (via aqui). Uma economista de Wurzburg, Alemanha, desenvolveu um conjunto de experimentos para verificar a relação das pessoas com a inteligência artificial em termos do processo de descobri a mentira.

Alicia von Schenk e seus colegas pediram para voluntários escreverem sobre seus planos para o fim de semana. Para aqueles que escrevessem um plano razoável, mas mentiroso, que corresponde a metade do grupo, foi pago um valor.  Ou seja, em metade dos voluntários, os pesquisadores incentivaram a mentira. Depois disso, eles usaram parte dos textos (80%) para treinar um algoritmo usando a inteligência artificial. Construído o modelo, com o restante dos textos (20%) eles verificaram que o algoritmo acertava 67%. Em geral o homem consegue descobrir quando as pessoas estão mentindo em metade dos casos. O que queremos dizer é que o algoritmo funcionava.

Depois disto, eles verificaram como as pessoas reagem com o uso de IA para detectar mentiras. Os pesquisadores verificaram o que acontecia quando as pessoas podiam pagar para usar a IA para ajudar a descobrir mentiras. Havia uma recusa em usar, talvez por não acreditar na capacidade da IA de ajudar ou por acreditarem que poderiam fazer com êxito. Mas aqueles que toparam pagar pelo uso da IA, eles confiavam na tecnologia. Mas há um ponto interessante aqui: metade dos textos eram mentirosos. Quando os voluntários não usavam IA, eles acreditavam que somente 19% dos casos eram mentirosos – embora soubessem que seria na verdade 50%. Mas quando usavam a IA, a taxa de acusação de que existia mentira no texto subia para 58%.

Aspecto positivo: a ferramenta melhorou o desempenho na detecção da mentira. Mas há um lado ruim: nossos relacionamentos dependem do fato de que acreditamos no outro. A IA pode gerar desconfiança excessiva. Mais ainda: se inventamos uma ferramente automática para detectar mentiras, podemos também inventar uma IA para inventar as mentiras. Os fraudadores do polígrafo tomam remédios para reduzir os batimentos cardíacos. Podemos inventar maneiras criativas de enganar a IA com uma IA construída para mentir e passar os testes. 

Para concluir: (Veja que interessante. Passei o texto acima no GPT para correção de alguns erros. Por três vezes ele mudou o texto. Na última vez, acrescentou: Essas questões ilustram que, embora métodos modernos como a inteligência artificial possam auxiliar na identificação de fraudes, eles não são soluções perfeitas e devem ser usados em conjunto com práticas tradicionais de auditoria para serem verdadeiramente eficazes.) Ah, isto não fazia parte do meu texto. Assustador, não?