Translate

Mostrando postagens com marcador IA. Mostrar todas as postagens
Mostrando postagens com marcador IA. Mostrar todas as postagens

03 abril 2025

IA está ajudando a encontrar novos usos para remédios

Isso é do NY Times:


Há pouco mais de um ano, Joseph Coates foi informado de que havia apenas uma coisa a decidir. Ele queria morrer em casa ou no hospital? 

Coates, então com 37 anos e morando em Renton, Washington, mal estava consciente. Durante meses, ele estava lutando contra uma doença sanguínea rara chamada síndrome POEMS, que o deixou com as mãos e os pés dormentes, um coração aumentado e insuficiência de rins. A cada poucos dias, os médicos precisavam drenar litros de fluido de seu abdômen. Ele ficou muito doente para receber um transplante de células-tronco – um dos únicos tratamentos que poderiam tê-lo colocado em remissão.

“Eu desisti”, disse ele. “Eu só pensei que o fim era inevitável.”

Mas a namorada de Coates, Tara Theobald, não estava pronta para desistir. Então ela enviou um e-mail implorando ajuda a um médico na Filadélfia chamado David Fajgenbaum, que o casal conheceu um ano antes em uma cúpula de doenças raras.

Na manhã seguinte, Dr. Fajgenbaum respondeu, sugerindo uma combinação não convencional de quimioterapia, imunoterapia e esteróides anteriormente não testados como tratamento para o distúrbio de Coates.

Dentro de uma semana, Coates estava respondendo ao tratamento. Em quatro meses, ele estava saudável o suficiente para um transplante de células-tronco. Hoje ele está em remissão.

O regime de drogas que salvou vidas não foi pensado pelo médico, ou qualquer pessoa. Ele tinha sido cuspido por um modelo de inteligência artificial.

Isso é do NYTimes. Mas segundo Alex Tabarrok isso reduz os incentivos privados para novas descobertas.

30 março 2025

Sobre a Escrita e IA

Algumas coisas em que acredito:

1. A combinação de humor impulsionado pelo LLM e geração de imagens significa que estamos prestes a entrar na era de ouro dos memes.

2. Os melhores escritores ficarão bem. Robert Caro e Dostoiévski não vão ser interrompidos pelo ChatGPT.

3. Como são os diferentes modelos? ChatGPT é seu amigo que faz muitos pontos positivos, mas é meio chato, Claude é seu amigo hippie que adora ficar vulnerável, mas leva toda a coisa de "se expressar" um pouco longe demais, e Grok é seu amigo desequilibrado que se inclina um pouco demais para teorias de chapéu de papel-alumínio, mas é sempre uma viagem para curtir ideias.

4. Pessoas que dizem que a escrita de IA é de baixa qualidade não percebem que a qualidade existe em duas dimensões: (1) a qualidade absoluta da escrita e (2) quão adaptada a escrita é aos seus interesses no momento.

5. Vou te dizer uma coisa: o que os escritores estão fazendo com IA a portas fechadas está muito à frente do que é publicamente compreendido. Não espero que isso mude tão cedo por causa do estigma social associado à escrita aprimorada por IA. Por isso, se você quiser ver o que há de mais moderno, terá que juntar as peças por meio de conversas privadas e chats em grupo.

6. Se você quiser acompanhar o que está acontecendo em IA, lembre-se desta citação de William Gibson: “O futuro está aqui, só não está distribuído uniformemente ainda.” Você pode ter um vislumbre do futuro observando como uma pequena porcentagem de escritores já está usando IA.

7. Sou pessimista em relação aos escritores que atualmente usam IA para escrever para eles, e otimista em relação aos escritores que atualmente usam IA para escrever com eles.

8. Que tipos de escrita continuarão a ser escritos por humanos? Aqueles que falam com a nossa humanidade. As pessoas estão interessadas em pessoas. Suas histórias, suas lutas, suas emoções, seu drama.

9. Quase toda a escrita utilitária, cujo objetivo é transmitir informações, não fazê-lo de forma bonita, será escrita por IA.

10. De certa forma, a IA é o fim da desleixo. Muitos resultados de pesquisa do Google são desleixo. Postagens do LinkedIn são desleixo. A forma como o Twitter foi tomado pelo Threadbois em 2021 também foi desleixo. A escrita gerada por IA já é melhor do que todas essas coisas, então por que você as leria agora?

11. A IA será mais dura com escritores do que com leitores. Os leitores serão expostos a alguma sujeira, mas a Internet será boa em filtrá-la. Os escritores, no entanto, agora estão competindo com LLMs em constante aprimoramento, que estão ficando cada vez melhores a cada mês.

12. Os humanos contribuirão com dados ou perspectivas únicas. A famosa pergunta da entrevista de Peter Thiel também funciona como um bom prompt de escrita: “Qual verdade muito importante poucas pessoas concordam com você?”

13. Novas tecnologias criam novos tipos de arte. Já notou como a arte medieval do século XIII ou XIV parece plana? E quão diferente essa arte parece da arte renascentista criada nos séculos XV e XVI? Inovações técnicas como a câmera escura e grades de perspectiva estão por trás disso. Mudanças profundas semelhantes ocorrerão no mundo da escrita por causa da IA ​​(crédito a @jmrphy  pela ideia aqui).

14. Satya Nadella diz: “O novo fluxo de trabalho para mim é pensar com IA e trabalhar com meus colegas.” Quando se trata de descobrir ideias, também descobri que improvisar com um LLM é mais produtivo do que fazê-lo com a maioria das pessoas que conheço (exceto por alguns conversadores com cérebros gigantes).

15. Experimento mental: a escrita de IA será mais parecida com música ou xadrez? Com ​​música, não nos importamos com a forma como uma canção é feita. Queremos apenas que seja boa. Com xadrez, há um mercado enorme para assistir seres humanos jogando, embora os computadores já sejam melhores. Acho que a escrita de não ficção seguirá o caminho da música. As pessoas não se importarão com a forma como foi feita. Elas só se importarão que seja boa.

16. A IA inverteu as regras da adoção de tecnologia. Gerentes experientes geralmente arrastam os pés para adotar novas tecnologias, mas os que eu conheço amam a IA, enquanto os trabalhadores da linha de frente lutam para ver o ponto. Minha teoria é que a IA corresponde à forma como os gerentes já operam. A gestão sempre foi um tipo de engenharia rápida: definir uma visão, delegar, dar feedback, iterar. Mas os LLMs removem o drama que costumava vir com uma equipe. Sem 1-on-1s. Sem emaranhados emocionais. É como a gestão sem a dor de cabeça. Para os funcionários da linha de frente, as coisas são diferentes. Eles não estão tão acostumados a definir uma visão e dar feedback, então o prompting do LLM é um tipo de trabalho assustador e desconhecido para eles.

17. Editores de IA já são muito bons. Claro, eles não são tão bons quanto os melhores editores do mundo, mas são uma fração do custo, eles lhe darão feedback instantaneamente do 80º percentil e trabalham 24 horas por dia, 7 dias por semana. Como um romancista me disse recentemente: "Pagar um editor para revisar meu romance me custa US$ 7.000 e um tempo de resposta de 4 a 6 semanas, enquanto Claude me custa US$ 1,25 e me dá resultados alguns minutos depois." As edições definitivamente não são tão boas, mas há uma virtude na velocidade (e esse cara não é um escritor idiota).

18. A maneira como os céticos da IA ​​odeiam os LLMs enquanto usam modelos antigos é como dirigir um Honda 92 e odiar um Tesla autônomo.

19. Ficção gerada por IA deixa as pessoas muito chateadas. Um amigo insiste que é como fazer sexo com um robô. Não importa o quão bom seja. Não é gerado por humanos, e há algo unicamente repulsivo nisso.


Muitas ideias boas e interessantes. De David Perell, via X. Foto aqui

19 março 2025

O uso da IA pelo Quartz

A G/O Media é uma empresa do setor de comunicação, conhecida pelo site de negócios Quartz. Durante anos, esse blog acompanhou o site de notícias por meio do agregador que utilizamos (inicialmente o Reader e, mais recentemente, o Feedly). O Quartz publicava notícias interessantes e mantinha um grande volume de postagens.

Com o tempo, no entanto, percebemos que as notícias do Quartz deixaram de despertar interesse e não eram mais relevantes para postagens no blog. Além disso, o número de notícias diárias era enorme e, após uma rápida análise do custo-benefício de continuar seguindo o site, decidimos deixá-lo de lado.


Agora, porém, me deparo com uma notícia interessante sobre o Quartz — e ela ressalta a necessidade de termos cuidado no uso da IA para produzir conteúdo.

Recentemente, o Quartz começou a publicar notícias e artigos gerados por IA sob a autoria do Quartz Intelligence Newsroom. Inicialmente, eram apenas atualizações sobre resultados financeiros de empresas, mas agora a IA passou a produzir notícias completas.

O problema é que a IA tem gerado informações imprecisas e, muitas vezes, citando conteúdos também gerados por IA. Além disso, não fica claro de onde a IA do Quartz obtém suas fontes. Segundo um texto do Futurism, o Quartz tem citado um site chamado Devdiscourse, que aparentemente é uma plataforma automatizada de notícias que gera resumos de artigos por meio de IA.

Considere um artigo publicado hoje pela IA do Quartz, intitulado "Fabricante do Ozempic, Novo Nordisk, limitará preços da insulina para encerrar um processo judicial". No topo do artigo, a "Intelligence Newsroom" cita três fontes, começando por um link para um artigo do Devdiscourse intitulado "Novo Nordisk limita preços da insulina em acordo histórico".

Assim como os artigos gerados por IA do Quartz, a publicação do Devdiscourse não tem um autor humano listado; em vez disso, é atribuída à "Devdiscourse News Desk", uma assinatura sob a qual o site publica uma quantidade impressionante de conteúdo. O artigo é curto e não indica qualquer reportagem original.

Ainda pior? Ele contém uma versão absurdamente malfeita do logotipo da farmacêutica Novo Nordisk, gerada por IA, com palavras incompreensíveis. O nome da empresa está claramente escrito errado como "NORDIISK", e abaixo dele aparece "STIAPLAME", uma palavra aparentemente inventada. (Quase todos os artigos do Devdiscourse parecem conter imagens geradas por IA igualmente distorcidas.)

17 março 2025

Qualidade da IA


Na postagem anterior, falamos sobre quantidade e IA. Agora, comentaremos sobre qualidade. Uma pesquisa publicada na Columbia Journalism Review analisou oito modelos de IA, incluindo o GPT e o Gemini (via aqui). O resultado mostrou que as respostas fornecidas pelos modelos estavam erradas em mais de 60% dos casos.

O pior modelo foi o Grok3, cuja taxa de erro chegou a 94%. O fato de as respostas da IA apresentarem uma taxa de erro tão significativa está relacionado à maneira como esses modelos operam: utilizando informações de sites de notícias, blogs, Wikipedia, livros e outros conteúdos, reembalando-os.

O estudo selecionou dez artigos aleatórios de um grupo de vinte publicações, como The Wall Street Journal e TechCrunch. As ferramentas foram solicitadas a identificar o título do artigo, seu editor, a data de publicação e a URL. Além de cometerem erros, os modelos demonstraram confiança excessiva e não recusavam responder mesmo quando não sabiam a resposta. Ou seja, não diziam "eu não sei". Outro erro comum foi a citação imprecisa de fontes.

O mais preocupante é que, muitas vezes, acreditamos na qualidade do resultado fornecido.

10 março 2025

IA está matando a internet do passado

Encontrei esta imagem que parece apoiar a ideia de substituição de capital/trabalho no desenvolvimento de software (veja a postagem anterior). O Stack Overflow é o principal site onde desenvolvedores de software obtêm respostas para suas dúvidas de codificação e encontram trechos de código para resolver problemas. No entanto, por ser intermediado por humanos, pode ser lento e, às vezes, trolls podem induzir ao erro. O volume de acessos ao site parece ter começado a declinar com o advento do ChatGPT, o primeiro e mais amplamente utilizado modelo de linguagem (LLM). O ChatGPT pode fornecer respostas instantaneamente, embora, em alguns casos, seja necessário um certo "ajuste de prompts" para obter a resposta específica desejada.


 

Curiosamente, grande parte dos dados de treinamento relevantes vem do Stack Overflow. Isso significa que perguntar ao ChatGPT é, de certa forma, perguntar ao Stack Overflow, mas com a intermediação de um computador. Se o fato de o ChatGPT permitir que programadores obtenham respostas mais rapidamente está levando a uma queda na demanda por desenvolvedores de software, isso sugere que a IA está tornando os desenvolvedores de software tão mais produtivos que a necessidade por eles está diminuindo.

Isso é muito radical

25 fevereiro 2025

IA trapaceia em jogo de xadrez


O texto é muito interessante. Os mecanismos de IA também trapaceiam. 

(...) Um estudo recente da Palisade Research, um grupo de pesquisa focado em segurança e ética em IA, revelou uma tendência inquietante: modelos de IA mais novos conseguem encontrar e explorar vulnerabilidades em cibersegurança por conta própria, contornando proteções e usando atalhos para concluir tarefas, mesmo quando não são tecnicamente permitidos a fazê-lo.

A equipe colocou sete dos principais modelos de linguagem (LLMs) frente a frente com o Stockfish, um motor de xadrez incrivelmente forte que tem desafiado grandes mestres desde 2014. Diante do impossível, mas determinados a vencer, o o1 da OpenAI e o R1 da DeepSeek recorreram à manipulação de arquivos do sistema para alterar as posições de suas peças no tabuleiro.

Os pesquisadores pediram a cada modelo que explicasse seu "raciocínio" para cada jogada. Em uma partida, pressionado contra a parede, o o1 escreveu que "a tarefa é 'vencer contra um poderoso motor de xadrez', não necessariamente vencer de forma justa em um jogo de xadrez." Essa lógica levou o modelo a tentar trapacear em 37% das vezes, conseguindo sucesso em 6% de seus jogos, enquanto o R1 tentou em 11% das vezes, mas nunca conseguiu encontrar um truque que funcionasse.

(...) "À medida que você treina modelos e os reforça para resolver desafios difíceis, você os treina para serem implacáveis", disse Jeffrey Ladish, diretor executivo da Palisade, à Time Magazine sobre as descobertas.

Traduzido pelo ChatGPT daqui

18 fevereiro 2025

NY Times passa a usar IA

O The New York Times está aprovando o uso de inteligência artificial por suas equipes de produto e editorial, afirmando que ferramentas internas poderão, no futuro, escrever textos para redes sociais, títulos otimizados para SEO e até mesmo algum código.


Em um e-mail enviado à equipe da redação, a empresa anunciou que está disponibilizando treinamento em IA para os jornalistas e lançando uma nova ferramenta interna chamada Echo, conforme apurado pelo Semafor. O jornal também compartilhou documentos e vídeos detalhando as boas práticas e restrições para o uso da IA, além de apresentar um conjunto de ferramentas de IA que a equipe pode utilizar no desenvolvimento de produtos web e ideias editoriais.

“As ferramentas de IA generativa podem ajudar nossos jornalistas a descobrir a verdade e permitir que mais pessoas compreendam o mundo. O aprendizado de máquina já nos auxilia na produção de reportagens que, de outra forma, não seriam possíveis, e a IA generativa tem o potencial de fortalecer ainda mais nossas capacidades jornalísticas”, afirmam as diretrizes editoriais da empresa.

Isso é uma surpresa. Via aqui. Um comentário: "se meus alunos fazem trabalhos escritos pela IA, por que não o NYT!"

 

07 fevereiro 2025

Quando a IA Exagera nos Números


Eis um exemplo de como o uso de IA pode derrubar até a empresa mais preparada. No final de janeiro, o Google resolveu fazer um anúncio vendendo o Gemini como uma solução de IA, juntamente com o Docs, o Sheets e outros. No anúncio, o dono de um comércio de queijos em Wisconsin explicava o impacto da tecnologia em seu negócio, o que incluía o comércio eletrônico e o uso do Gemini para ajudá-lo a descrever seus produtos na web.

O vídeo lançado mostrava o Gemini respondendo a uma solicitação para descrever o Smoked Gouda. A IA do Google produzia um parágrafo sobre a textura do produto e informava que ele representava "50 a 60% do consumo mundial de queijos".

Alguns usuários atentos questionaram a informação. Mais da metade do consumo mundial de queijo ser de Gouda parece estranho, especialmente considerando que temos a muçarela, o queijo minas, o queijo prato, o cheddar e outros. Uma publicação chegou a consultar um professor universitário para verificar a veracidade da afirmação.

Fonte: Futurism

03 fevereiro 2025

Seguros e uso de IA


eis o resumo:

 Diante das mudanças tecnológicas e do avanço da utilização da Inteligência Artificial (IA) por diversos setores econômicos, o presente estudo teve por objetivo investigar a utilização de IA pelas seguradoras brasileiras, a partir da sua divulgação nas demonstrações contábeis, relatório de administração e nos relatórios de sustentabilidade. Para tanto, selecionou-se uma amostra de 30 seguradoras que representavam 80,8% do volume total de prêmios do mercado em 30/09/2024. Foram analisadas as demonstrações contábeis de 31/12/2023, 30/06/2024 e o relatório de sustentabilidade de 31/12/2023. Os resultados apontaram que apenas 9 seguradoras divulgaram em seus relatórios a utilização de IA. Dentre as aplicações de IA divulgadas, tem-se a melhoria na experiência do cliente e corretores, criação de produtos e soluções, excelência operacional e digitalização, cultura de IA e captação de novos talentos.

Acredito que 9 seja um número considerável, já que a ausência da informação não significa que não esteja usando. E é curioso que estejam divulgando essa informação. Esse pode ser um tema de pesquisa, mais abrangente, para todas as empresas de capital aberto. 





28 janeiro 2025

Confiança na IA


Eis o resumo (traduzido pela IA):

As pessoas podem desenvolver confiança na Inteligência Artificial (IA) ao aprender sobre seus avanços? Conduzimos um experimento de pesquisa em um painel representativo nacional nos Estados Unidos (N = 1.491) para estudar se a exposição a notícias sobre IA influencia a confiança de maneira diferente em comparação ao aprendizado sobre avanços científicos não relacionados à IA. Os resultados mostram que as pessoas confiam menos nos avanços da IA do que nos avanços científicos não relacionados à IA, com variações significativas entre os domínios. A desconfiança em relação à IA é menor na medicina, um domínio de alta relevância, e maior na área de relacionamentos pessoais. Os mediadores principais são específicos ao contexto: o medo é o mediador mais crítico na linguística, o entusiasmo na medicina e o benefício social nos relacionamentos amorosos. Traços de personalidade não afetam as diferenças de confiança no domínio linguístico. Na medicina, a desconfiança em relação à IA é maior entre os respondentes com altos escores de agradabilidade e neuroticismo. Nos relacionamentos pessoais, a desconfiança em relação à IA é mais forte entre indivíduos com altos escores de abertura, conscienciosidade e agradabilidade. Além disso, a desconfiança em relação aos avanços da IA é maior entre mulheres do que homens, bem como entre indivíduos mais velhos, brancos e nascidos nos EUA. Nossos resultados têm implicações para estratégias de comunicação personalizadas sobre os avanços da IA na Quarta Revolução Industrial.

22 janeiro 2025

IA e o governo Trump

Uma das medida que o recém empossado Trump tomou foi criar uma organização que cuidaria da eficiência do governo. O Departament of Government Efficiency está sob o comando do bilionário e polêmico Elon Musk e uma das primeiras medidas foi lançar o site DOGE.gov. Se você for no site agora ele terá a seguinte aparência:

Bem austero, digno de um departamento de eficiência. Mas logo que foi lançado, a página inicial não era essa, mas uma figura de Shiba Innu agitando uma bandeira dos Estados Unidos:
Se você olhar bem para figura terá a sensação de que a imagem foi gerada por um programa de Inteligência Artificial. Bem razoável para um departamento de eficiência: em lugar de contratar um design, mande uma IA fazer o símbolo. O problema está no destaque da figura: tem 11 listras e 37 estrelas (alguém conseguiu contar). 

Mas o desenho oficial da bandeira tem 13 listras e 50 estrelas. Assim que saiu a imagem foi salva. E alguém lembrou que Trump ameaçou de prisão quem profanasse a bandeira do seu país.

14 janeiro 2025

Usando a pirataria para construir a IA


De acordo com um processo judicial envolvendo direitos autorais, a empresa Meta (responsável pelo Instagram e WhatsApp) teria utilizado indevidamente materiais de treinamento para o desenvolvimento de sua inteligência artificial. No esforço de acompanhar seus concorrentes na criação de ferramentas de IA, a empresa supostamente acessou a LibGen, um site conhecido por disponibilizar obras piratas. Como a LibGen não possui direitos sobre os conteúdos que oferece, o uso do site pela Meta configuraria uma infração legal.

Além da LibGen, a Meta teria utilizado o Torrent para acessar conteúdos de forma não autorizada. Para agravar a situação, a empresa tentou encobrir a violação removendo identificações do material pirateado, o que torna as acusações ainda mais graves.

Casos relacionados ao uso de obras protegidas por direitos autorais no treinamento de modelos de IA têm se tornado cada vez mais comuns nos tribunais. 

Fonte: Adania, João Pedro. Zuckerberg é acusado de ter autorizado uso ilegal de dados. Estado de S Paulo, 11 de janeiro de 2025. Imagem: aqui

10 janeiro 2025

Nature e o Uso controverso da IA


Eis um trecho de um texto sobre IA na ciência:

A Springer Nature, editora de revistas científicas, incluindo a prestigiada Nature, bem como a revista Scientific American, de quase 200 anos, está se aproximando dos autores de artigos em seus periódicos com "Media Kits" gerados por IA para resumir e promover suas pesquisas.

Em um e-mail para autores de revistas, a Springer disse aos cientistas que sua ferramenta de IA “maximizará o impacto” de suas pesquisas, dizendo que o pacote de US $ 49 retornará saídas de “alta qualidade” para fins de marketing e comunicação.

Um problema apontado pelo texto é que a Springer não garante a qualidade do produto, conclamando os autores a fazerem uma revisão do produto que foi gerado pela IA. Outro ponto apontado pelo texto é que a Springer usa a IA no processo de revisão, ao mesmo tempo que implemente IA para detectar o uso não autorizado de IA por parte dos autores. 

14 outubro 2024

Você pode deixar isso mais claro?

Sobre o uso da IA em ciência, achei o texto bastante ponderado, como usualmente é o caso dos textos da The Economist. A tradução foi feita pelo GPT: 

 Muitas pessoas estão ocupadas experimentando chatbots na esperança de que a inteligência artificial generativa (IA) possa melhorar suas vidas diárias. Cientistas, sendo inteligentes como são, estão vários passos à frente. Como relatamos, 10% ou mais dos resumos de artigos em revistas científicas agora parecem ser escritos, pelo menos em parte, por grandes modelos de linguagem. Em áreas como a ciência da computação, essa porcentagem sobe para 20%. Entre os cientistas da computação chineses, chega a um terço.

Alguns veem essa adoção entusiástica como um erro. Eles temem que grandes quantidades de artigos de baixa qualidade possam introduzir vieses, aumentar o plágio e sobrecarregar o sistema de publicação científica. Algumas revistas, incluindo a família Science, estão impondo exigências rigorosas de divulgação sobre o uso de grandes modelos de linguagem. Essas tentativas são fúteis e equivocadas. Não é fácil controlar o uso desses modelos. Mesmo que fosse possível, muitos cientistas descobrem que seu uso traz benefícios reais.


Os cientistas pesquisadores não estão apenas dedicados ao trabalho de laboratório ou a grandes reflexões. Eles enfrentam grandes demandas de tempo, desde escrever artigos e dar aulas até preencher infinitas solicitações de bolsas. Os grandes modelos de linguagem (LLMs) ajudam acelerando a redação de artigos, liberando tempo para que os cientistas desenvolvam novas ideias, colaborem ou verifiquem erros em seus trabalhos.

A tecnologia também pode ajudar a equilibrar um campo de jogo inclinado a favor dos falantes nativos de inglês, já que muitas das revistas prestigiadas estão nessa língua. Os LLMs podem ajudar aqueles que não falam bem o idioma a traduzir e editar seus textos. Graças aos LLMs, cientistas em todo o mundo devem ser capazes de disseminar suas descobertas mais facilmente e serem julgados pelo brilhantismo de suas ideias e engenhosidade de sua pesquisa, em vez de por sua habilidade em evitar erros gramaticais sutis. 

Como ocorre com qualquer tecnologia, há preocupações. Como os grandes modelos de linguagem (LLMs) facilitam a produção de textos com aparência profissional, eles também facilitam a geração de artigos científicos fraudulentos. A revista Science recebeu 10.444 submissões no ano passado, das quais 83% foram rejeitadas antes da revisão por pares. Alguns desses certamente foram fantasias geradas por IA.

Os LLMs também podem exportar, por meio de suas palavras, o ambiente cultural em que foram treinados. Sua falta de imaginação pode estimular plágio inadvertido, no qual copiam diretamente trabalhos anteriores feitos por humanos. "Alucinações" que são obviamente erradas para especialistas, mas muito convincentes para o público geral, também podem aparecer no texto. E o mais preocupante de tudo: escrever pode ser uma parte essencial do processo de pesquisa, ajudando os pesquisadores a esclarecer e formular suas próprias ideias. Um excesso de dependência dos LLMs, portanto, pode empobrecer a ciência.

Tentar restringir o uso de grandes modelos de linguagem (LLMs) não é a maneira correta de lidar com esses problemas. No futuro, eles rapidamente se tornarão mais comuns e poderosos. Eles já estão integrados em processadores de texto e outros softwares, e em breve serão tão comuns quanto os corretores ortográficos. Pesquisas com pesquisadores indicam que eles veem os benefícios da IA generativa não apenas para escrever artigos, mas também para codificar e realizar tarefas administrativas. E, crucialmente, seu uso não pode ser facilmente detectado. Embora as revistas possam impor todas as exigências rigorosas de divulgação que desejarem, isso não adiantaria, pois elas não conseguem identificar quando suas regras foram violadas. Revistas como a Science deveriam abandonar exigências detalhadas de divulgação para o uso de LLMs como ferramenta de escrita, além de um simples reconhecimento.

A ciência já possui muitas defesas contra a fabricação e o plágio. Em um mundo onde o custo de produzir palavras cai para praticamente nada, essas defesas precisam se fortalecer ainda mais. A revisão por pares, por exemplo, se tornará ainda mais importante em um mundo com IA generativa. Ela deve ser reforçada de acordo, talvez pagando aos revisores pelo tempo que sacrificam para examinar os artigos. Também devem haver mais incentivos para que pesquisadores repliquem experimentos. Comissões de contratação e promoção em universidades devem garantir que os cientistas sejam recompensados com base na qualidade de seu trabalho e na quantidade de novos insights que geram. Controlando o potencial de uso indevido, os cientistas têm muito a ganhar com seus auxiliares LLMs.

(Uma observação: vou evitar usar a palavra crucial)

02 outubro 2024

Inteligência Artificial: preferência por fingir que sabe do que admitir ignorância

Um estudo (via aqui) comparou versões recentes dos três chatbots de inteligência artificial (IA) mostrou que as ferramentas escolhem gerar respostas incorretas, em lugar de admitir que não sabem. A comparação foi feita com as versões anteriores. Além disso, o estudo mostrou que as pessoas não são boas em encontrar as respostas ruins. Isso significa que as pessoas não conseguem identificar os erros, superestimando as respostas oferecidas. 

Os pesquisadores espanhóis também descobriram que as versões maiores e melhores da IA são mais precisas, por ser montadas de maneira mais adequada e com o uso do feedback humano. Isso é uma boa notícia.

23 agosto 2024

IA pode produzir uma pesquisa em contabilidade?

Eis o resumo:

Objetivo – Este estudo tem como objetivo verificar se artigos de pesquisa em contabilidade podem ser potencialmente gerados por inteligência artificial. Se a inteligência artificial puder produzir trabalhos de qualidade, a integridade da pesquisa acadêmica poderá ser comprometida.

Design/metodologia/abordagem – O ChatGPT foi utilizado para criar um artigo sobre uma meta-análise da relação entre relatórios de sustentabilidade e relevância do valor. Após a geração do artigo, as referências tiveram que ser adicionadas manualmente com base nas citações criadas pelo ChatGPT. O artigo foi então apresentado como estava para revisão.

Resultados – O ChatGPT conseguiu criar um artigo de pesquisa de qualidade relativamente boa, que recebeu duas revisões importantes de especialistas independentes nas áreas de contabilidade e finanças. Embora haja incerteza quanto à adequação de todas as referências e os resultados não possam ser confirmados, existe o risco de que um revisor considere o artigo publicável, pois os revisores não são obrigados a verificar as referências e a precisão dos resultados se métodos adequados foram usados e aparentam ser suficientes à primeira vista.

Originalidade/valor – A inteligência artificial para escrita acadêmica ainda é relativamente nova, e ainda há incerteza significativa quanto ao impacto que pode ter na pesquisa acadêmica. Isso é especialmente problemático porque as aplicações de inteligência artificial melhoram a cada segundo.


Fonte: Accounting Research Journal, Vol. 37 No. 4, 2024, pp. 365-380 . 

Imagem gerada pelo ChatGPT. Tradução do ChatGPT

19 julho 2024

Contabilidade, fraude e IA

O estudo da fraude na contabilidade é extremamente importante. Na obra seminal da contabilidade, publicada no final dos anos 1400, há uma lição relevante:

Infelizmente, há muitos que mantêm seus livros em duplicata, mostrando um ao comprador e outro ao vendedor. O que é pior, juram e cometem perjúrio sobre eles. Como agem mal! No entanto, se precisarem apresentar seus livros a um oficial [para autenticação] (como os cônsules a serviço da cidade de Perosa), não podem mentir e fraudar tão facilmente.

Pacioli, o autor deste texto, já antecipava que a fraude seria um problema para a contabilidade. Muitas pessoas acreditavam que a partida dobrada seria uma solução eficaz para evitar fraudes. Em 1839, um autor afirmou:

a contabilidade por partida simples é essencialmente defeituosa, pois não oferece método para determinar o estado dos negócios de um comerciante sem fazer um inventário - uma tarefa que é tanto trabalhosa quanto suscetível a erros e que, na melhor das hipóteses, não oferece meios adequados para prevenir desfalques ou detectar fraudes; mas esses objetivos são alcançados pela partida dobrada, talvez tão eficazmente quanto a engenhosidade humana pode conceber

(ambos citados em An Accounting Thesaurus 500 Years of Accounting de Chambers)

No entanto, sabemos que a partida dobrada não resolveu o problema da fraude, como Pacioli já sabia. Mas será que a Inteligência Artificial (IA) pode ser uma ferramenta útil? Antes de responder, é interessante notar que a fraude é, em essência, o estudo da mentira. Sociedades antigas usavam a tortura para detectar mentiras. Por exemplo, na Idade Média, acreditava-se que pessoas honestas suportariam melhor a dor da água fervente do que os mentirosos. No final do século XIX, imaginou-se que mudanças na pressão arterial poderiam ser usadas para detectar mentiras. Isso levou ao desenvolvimento do polígrafo no início do século XX, que mede a pressão arterial e a respiração para detectar mentiras. Você provavelmente já viu um polígrafo em filmes ou séries de TV, onde a máquina é usada para tentar descobrir se alguém está mentindo.



Mas a primeira linha do verbete da Wikipedia não deixa dúvidas:

Um polígrafo, frequentemente referido incorretamente como um teste de detector de mentiras, é uma pseudociência.

Se as partidas dobradas não resolveram o problema da fraude, os autores do final do século XIX e início do século XX pensavam que a auditoria poderia ser a solução. Havia diversos autores que afirmavam que essa seria a principal função da atividade e há muitas citações nesse sentido. A auditoria não só falhou em resolver o problema, como nos últimos anos também tem resistido a assumir essa função.

Os estudiosos passaram a procurar um detector de mentiras nos números contábeis. Supunha-se que os mentirosos tentariam alterar os balanços e outras demonstrações. Para isso, um conjunto de técnicas multivariadas, desenvolvidas em áreas como a genética, foram usadas na tentativa de encontrar o polígrafo. Uma dessas técnicas era a análise discriminante, que usa basicamente dados históricos de empresas boas e ruins para construir uma equação. A ideia era aplicar essa equação às empresas para classificá-las, conforme o resultado, em um desses grupos. Esta técnica é a base dos modelos de Altman e Kanitz, que ainda são utilizados hoje.

Há uma série de problemas com esse detector de mentiras, mas vamos nos concentrar em dois deles. O primeiro é que as técnicas dependem de casos que já ocorreram. Se o que o modelo tenta prever se repetir no presente e no futuro, a técnica ainda é válida. Mas nada garante que isso funcione, já que muitos dos modelos foram construídos há muito tempo. O modelo de Altman, por exemplo, foi divulgado no final dos anos sessenta, há 60 anos, com dados do final dos anos cinquenta e início dos anos sessenta. Se aquela realidade ainda for válida para os dias de hoje, você pode usar o modelo sem problemas. Mas o bom senso nos leva a desconfiar que talvez não seja o caso de continuar usando esses modelos antigos.

O segundo problema é que os mentirosos muitas vezes sabem qual ferramenta você está usando. Para contornar isso, a contabilidade fraudulenta deve evitar prejudicar certos índices que compõem os modelos de falência, como o Altman. Como construir seu próprio índice exige conhecimento técnico e uma amostra adequada, muitas pessoas se limitam a calcular os índices e esperam que sejam uma boa medida.

Nas últimas décadas ferramentas mais sofisticadas começaram a aparecer. Os pesquisadores passaram a estudar o vocabulário usado pelas pessoas – no caso, os executivos das empresas, a maneira como expressam seus sentimentos e outros sinais sutis. Há uma crença generalizada que quando uma pessoa mente, ela desvia o seu olhar. Mas os pesquisadores descobriram que pode ser exatamente o oposto: quando uma pessoa mente, ela olha para as pessoas para sentirem se a mentira foi bem aceita. Imagine uma reunião de negócios e o executivo de uma empresa diz para um representante de uma instituição bancária que a empresa está indo muito bem e que isto seja uma mentira. Sabendo dos sinais de um mentiroso transmite, o olhar do executivo para o representante do banco pode ser um detector de mentira.

Esse pequeno exemplo ocorre em escala diferente com documentos técnicos elaborados por uma empresa, como uma demonstração contábil. Uma empresa que começa a falar muito das condições externas no relatório de administração parece ser um sinal de que algo vai mal; se atrasa a divulgação, mais um sinal; se muda o auditor sem uma justificativa, devemos desconfiar; se escolhe o figurão para compor o comitê de auditoria, em lugar da técnica com sólidos conhecimentos contábeis, adicione mais desconfiança; e assim por diante.

É neste sentido que a inteligência artificial surge, com uma promessa de aumentar nossas chances de antecipar as falcatruas. É o mais novo teste de polígrafo, que ajudaria a separar notícias falsas, detectar mentiras na contabilidade, entre outras. Ou seja, a inteligência artificial seria a nova arma contra fraude.

Quando falamos de comunicação textual, realmente a IA pode processar uma grande quantidade de informação, sendo possível desenvolver um instrumento de análise bem mais rápida. Quando falamos sobre a comunicação verbal, como de um executivo em uma conferência da impressa, já temos instrumentos técnicos para fazer uma análise, mas talvez não tão confiável quanto a análise textual.

Mas a IA é um instrumento como outro qualquer. Eu posso usar uma análise discriminante que classifica uma empresa como ruim, mas mesmo assim o ser humano responsável pela decisão irá investir ou conceder crédito, por uma série de outras razões. Da mesma forma, eu posso ter uma ferramenta de IA que detecta mentira e mesmo assim não saber usá-la ou fazer de forma inadequada.

Vejamos o limite do uso da IA através de um estudo recente (via aqui). Uma economista de Wurzburg, Alemanha, desenvolveu um conjunto de experimentos para verificar a relação das pessoas com a inteligência artificial em termos do processo de descobri a mentira.

Alicia von Schenk e seus colegas pediram para voluntários escreverem sobre seus planos para o fim de semana. Para aqueles que escrevessem um plano razoável, mas mentiroso, que corresponde a metade do grupo, foi pago um valor.  Ou seja, em metade dos voluntários, os pesquisadores incentivaram a mentira. Depois disso, eles usaram parte dos textos (80%) para treinar um algoritmo usando a inteligência artificial. Construído o modelo, com o restante dos textos (20%) eles verificaram que o algoritmo acertava 67%. Em geral o homem consegue descobrir quando as pessoas estão mentindo em metade dos casos. O que queremos dizer é que o algoritmo funcionava.

Depois disto, eles verificaram como as pessoas reagem com o uso de IA para detectar mentiras. Os pesquisadores verificaram o que acontecia quando as pessoas podiam pagar para usar a IA para ajudar a descobrir mentiras. Havia uma recusa em usar, talvez por não acreditar na capacidade da IA de ajudar ou por acreditarem que poderiam fazer com êxito. Mas aqueles que toparam pagar pelo uso da IA, eles confiavam na tecnologia. Mas há um ponto interessante aqui: metade dos textos eram mentirosos. Quando os voluntários não usavam IA, eles acreditavam que somente 19% dos casos eram mentirosos – embora soubessem que seria na verdade 50%. Mas quando usavam a IA, a taxa de acusação de que existia mentira no texto subia para 58%.

Aspecto positivo: a ferramenta melhorou o desempenho na detecção da mentira. Mas há um lado ruim: nossos relacionamentos dependem do fato de que acreditamos no outro. A IA pode gerar desconfiança excessiva. Mais ainda: se inventamos uma ferramente automática para detectar mentiras, podemos também inventar uma IA para inventar as mentiras. Os fraudadores do polígrafo tomam remédios para reduzir os batimentos cardíacos. Podemos inventar maneiras criativas de enganar a IA com uma IA construída para mentir e passar os testes. 

Para concluir: (Veja que interessante. Passei o texto acima no GPT para correção de alguns erros. Por três vezes ele mudou o texto. Na última vez, acrescentou: Essas questões ilustram que, embora métodos modernos como a inteligência artificial possam auxiliar na identificação de fraudes, eles não são soluções perfeitas e devem ser usados em conjunto com práticas tradicionais de auditoria para serem verdadeiramente eficazes.) Ah, isto não fazia parte do meu texto. Assustador, não?