Sobre o uso da IA em ciência, achei o texto bastante ponderado, como usualmente é o caso dos textos da The Economist. A tradução foi feita pelo GPT:
Muitas pessoas estão ocupadas experimentando chatbots na esperança de que a inteligência artificial generativa (IA) possa melhorar suas vidas diárias. Cientistas, sendo inteligentes como são, estão vários passos à frente. Como relatamos, 10% ou mais dos resumos de artigos em revistas científicas agora parecem ser escritos, pelo menos em parte, por grandes modelos de linguagem. Em áreas como a ciência da computação, essa porcentagem sobe para 20%. Entre os cientistas da computação chineses, chega a um terço.
Alguns veem essa adoção entusiástica como um erro. Eles temem que grandes quantidades de artigos de baixa qualidade possam introduzir vieses, aumentar o plágio e sobrecarregar o sistema de publicação científica. Algumas revistas, incluindo a família Science, estão impondo exigências rigorosas de divulgação sobre o uso de grandes modelos de linguagem. Essas tentativas são fúteis e equivocadas. Não é fácil controlar o uso desses modelos. Mesmo que fosse possível, muitos cientistas descobrem que seu uso traz benefícios reais.
Os cientistas pesquisadores não estão apenas dedicados ao trabalho de laboratório ou a grandes reflexões. Eles enfrentam grandes demandas de tempo, desde escrever artigos e dar aulas até preencher infinitas solicitações de bolsas. Os grandes modelos de linguagem (LLMs) ajudam acelerando a redação de artigos, liberando tempo para que os cientistas desenvolvam novas ideias, colaborem ou verifiquem erros em seus trabalhos.
A tecnologia também pode ajudar a equilibrar um campo de jogo inclinado a favor dos falantes nativos de inglês, já que muitas das revistas prestigiadas estão nessa língua. Os LLMs podem ajudar aqueles que não falam bem o idioma a traduzir e editar seus textos. Graças aos LLMs, cientistas em todo o mundo devem ser capazes de disseminar suas descobertas mais facilmente e serem julgados pelo brilhantismo de suas ideias e engenhosidade de sua pesquisa, em vez de por sua habilidade em evitar erros gramaticais sutis.
Como ocorre com qualquer tecnologia, há preocupações. Como os grandes modelos de linguagem (LLMs) facilitam a produção de textos com aparência profissional, eles também facilitam a geração de artigos científicos fraudulentos. A revista Science recebeu 10.444 submissões no ano passado, das quais 83% foram rejeitadas antes da revisão por pares. Alguns desses certamente foram fantasias geradas por IA.
Os LLMs também podem exportar, por meio de suas palavras, o ambiente cultural em que foram treinados. Sua falta de imaginação pode estimular plágio inadvertido, no qual copiam diretamente trabalhos anteriores feitos por humanos. "Alucinações" que são obviamente erradas para especialistas, mas muito convincentes para o público geral, também podem aparecer no texto. E o mais preocupante de tudo: escrever pode ser uma parte essencial do processo de pesquisa, ajudando os pesquisadores a esclarecer e formular suas próprias ideias. Um excesso de dependência dos LLMs, portanto, pode empobrecer a ciência.
Tentar restringir o uso de grandes modelos de linguagem (LLMs) não é a maneira correta de lidar com esses problemas. No futuro, eles rapidamente se tornarão mais comuns e poderosos. Eles já estão integrados em processadores de texto e outros softwares, e em breve serão tão comuns quanto os corretores ortográficos. Pesquisas com pesquisadores indicam que eles veem os benefícios da IA generativa não apenas para escrever artigos, mas também para codificar e realizar tarefas administrativas. E, crucialmente, seu uso não pode ser facilmente detectado. Embora as revistas possam impor todas as exigências rigorosas de divulgação que desejarem, isso não adiantaria, pois elas não conseguem identificar quando suas regras foram violadas. Revistas como a Science deveriam abandonar exigências detalhadas de divulgação para o uso de LLMs como ferramenta de escrita, além de um simples reconhecimento.
A ciência já possui muitas defesas contra a fabricação e o plágio. Em um mundo onde o custo de produzir palavras cai para praticamente nada, essas defesas precisam se fortalecer ainda mais. A revisão por pares, por exemplo, se tornará ainda mais importante em um mundo com IA generativa. Ela deve ser reforçada de acordo, talvez pagando aos revisores pelo tempo que sacrificam para examinar os artigos. Também devem haver mais incentivos para que pesquisadores repliquem experimentos. Comissões de contratação e promoção em universidades devem garantir que os cientistas sejam recompensados com base na qualidade de seu trabalho e na quantidade de novos insights que geram. Controlando o potencial de uso indevido, os cientistas têm muito a ganhar com seus auxiliares LLMs.
(Uma observação: vou evitar usar a palavra crucial)