Um estudo (via aqui) comparou versões recentes dos três chatbots de inteligência artificial (IA) mostrou que as ferramentas escolhem gerar respostas incorretas, em lugar de admitir que não sabem. A comparação foi feita com as versões anteriores. Além disso, o estudo mostrou que as pessoas não são boas em encontrar as respostas ruins. Isso significa que as pessoas não conseguem identificar os erros, superestimando as respostas oferecidas.
Os pesquisadores espanhóis também descobriram que as versões maiores e melhores da IA são mais precisas, por ser montadas de maneira mais adequada e com o uso do feedback humano. Isso é uma boa notícia.
Nenhum comentário:
Postar um comentário