Temos lido muito sobre inteligência artificial. Aqui, nesta postagem, compartilho um caso pessoal que julgo interessante. Há um ano, publiquei aqui sobre uma pergunta que fiz ao ChatGPT sobre a diferença entre despesa e perda. O link fornece a resposta e minhas considerações sobre o assunto. Basicamente, acredito que o GPT realizou a pesquisa em língua inglesa e traduziu a resposta para o português. Ou seja, ele usou os normativos emitidos pelo FASB. Entretanto, há uma diferença na definição do FASB e do IASB sobre os termos, e isso passou despercebido pelo GPT.
Agora, no final do semestre letivo, em uma avaliação na graduação, na disciplina de Teoria Contábil, fiz uma pergunta objetiva onde transcrevia a resposta do GPT e oferecia cinco alternativas. Ao elaborar a questão, tive dificuldade em criar alternativas e decidi inserir uma onde a afirmação era que o GPT estava correto.
Depois de corrigir as provas, pensei que essa alternativa não era muito boa. Afinal, qual a razão de um professor colocar um longo texto do GPT para que a afirmativa correta fosse que a inteligência artificial estava correta? Se eu fosse aluno, provavelmente descartaria essa alternativa. Mas, para minha surpresa, um número muito elevado de alunos escolheu a afirmação de que o GPT estava certo. Novamente, ele não estava certo. Será que as pessoas agora associam respostas da IA como sendo algo seguramente certo? Parece que sim.