Translate

19 julho 2024

A Confiança Excessiva na Inteligência Artificial

Temos lido muito sobre inteligência artificial. Aqui, nesta postagem, compartilho um caso pessoal que julgo interessante. Há um ano, publiquei aqui sobre uma pergunta que fiz ao ChatGPT sobre a diferença entre despesa e perda. O link fornece a resposta e minhas considerações sobre o assunto. Basicamente, acredito que o GPT realizou a pesquisa em língua inglesa e traduziu a resposta para o português. Ou seja, ele usou os normativos emitidos pelo FASB. Entretanto, há uma diferença na definição do FASB e do IASB sobre os termos, e isso passou despercebido pelo GPT.



Agora, no final do semestre letivo, em uma avaliação na graduação, na disciplina de Teoria Contábil, fiz uma pergunta objetiva onde transcrevia a resposta do GPT e oferecia cinco alternativas. Ao elaborar a questão, tive dificuldade em criar alternativas e decidi inserir uma onde a afirmação era que o GPT estava correto.

Depois de corrigir as provas, pensei que essa alternativa não era muito boa. Afinal, qual a razão de um professor colocar um longo texto do GPT para que a afirmativa correta fosse que a inteligência artificial estava correta? Se eu fosse aluno, provavelmente descartaria essa alternativa. Mas, para minha surpresa, um número muito elevado de alunos escolheu a afirmação de que o GPT estava certo. Novamente, ele não estava certo. Será que as pessoas agora associam respostas da IA como sendo algo seguramente certo? Parece que sim.