Translate

18 abril 2024

Troca de auditor e reapresentação


Eis o resumo: 

Objetivo: o objetivo foi analisar se empresas que reapresentaram as Demonstrações Financeiras (DFs) sofreram alterações nos honorários e/ou mudança da firma de auditoria no ano subsequente ao evento.

Método: foram analisados dados de 323 empresas não financeiras listadas na B3, totalizando 2.712 observações (empresas/ano) entre 2010 e 2020. Os dados foram obtidos nos sites da Comissão de Valores Mobiliários (CVM), da ComDinheiro e no repositório de dados de Perlin (2020). Utilizamos estatística descritiva, testes de diferença entre médias e regressão com dados em painel para a análise.

Resultados: empresas que reapresentaram suas demonstrações financeiras pagaram honorários de auditoria mais elevados no ano subsequente e tiveram maior chance de troca de firma de auditoria.

Contribuições: este estudo é relevante para auditores, membros de comitês de auditoria e governança, e fornecem evidências para embasar decisões sobre contratação e rescisão de auditorias independentes. Indica que o aumento nos honorários pode ser uma compensação pelo risco percebido, e a troca de firma de auditoria pode servir como uma forma de punição ou proteção da reputação organizacional diante das reapresentações.

O artigo foi publicado na REPeC, em 2024. Há muitos trechos interessantes no artigo, mas eis um deles: 


Imagem criada pelo ChatGPT

17 abril 2024

Litígios podem ajudar o clima

A litigação climática está em destaque novamente após uma decisão histórica na semana passada. O principal tribunal europeu de direitos humanos considerou que o governo suíço estava violando os direitos humanos de seus cidadãos por sua falta de ação climática. O caso, movido por mais de 2.000 mulheres idosas, é um dos mais de 2.300 processos climáticos que foram apresentados contra empresas e governos ao redor do mundo (veja 'Casos climáticos disparam').

Mas as ações judiciais relacionadas às mudanças climáticas fazem diferença nas ações de nações e corporações? Pesquisadores dizem que a litigação está incentivando governos e empresas a intensificar as medidas climáticas.

"Há uma série de vitórias notáveis na justiça que levaram a ações por parte dos governos", diz Lucy Maxwell, advogada de direitos humanos e co-diretora da Climate Litigation Network, uma organização sem fins lucrativos em Londres.

(...)

Um caso crucial que estimulou mudanças foi movido contra o governo holandês em 2013, pela Fundação Urgenda, um grupo ambientalista baseado em Zaandam, na Holanda, juntamente com cerca de 900 cidadãos holandeses. O tribunal ordenou que o governo reduzisse as emissões de gases de efeito estufa do país em pelo menos 25% até 2020, em comparação com os níveis de 1990, uma meta que o governo atingiu. Como resultado, em 2021, o governo anunciou um investimento de €6,8 bilhões (US$7,2 bilhões) em medidas climáticas. Também aprovou uma lei para eliminar o uso de energia a carvão até 2030 e, conforme prometido, fechou uma planta de produção de carvão até 2020, diz Maxwell.

Em 2020, jovens ativistas ambientais na Alemanha, apoiados por organizações como o Greenpeace, venceram um caso argumentando que a meta do governo alemão de reduzir as emissões de gases de efeito estufa em 55% até 2030 em comparação com os níveis de 1990 era insuficiente para limitar o aumento da temperatura global a "bem abaixo de 2 ºC", o objetivo do Acordo Climático de Paris de 2015. Como resultado, o governo fortaleceu sua meta de redução de emissões para um corte de 65% até 2030 e estabeleceu uma meta para reduzir as emissões em 88% até 2040. Também antecipou uma meta para alcançar a 'neutralidade climática' — garantindo que as emissões de gases de efeito estufa sejam iguais ou inferiores às emissões absorvidas da atmosfera por processos naturais — para 2045 em vez de 2050. “Na Holanda e na Alemanha, ações foram tomadas imediatamente após as ordens judiciais”, diz Maxwell.

E quanto aos casos que falham?

Casos que falham no tribunal podem ser benéficos, diz Joana Setzer no Grantham Research Institute on Climate Change and the Environment da London School of Economics and Political Science.

Em um caso de 2015 chamado Juliana v. Estados Unidos, um grupo de jovens processou o governo dos EUA por não fazer o suficiente para desacelerar as mudanças climáticas, o que eles afirmavam violar seu direito constitucional à vida e à liberdade. “Este é um caso que enfrentou muitos obstáculos legais, que não resultou em uma mudança de política ordenada pelo tribunal. Mas ele aumentou a conscientização pública sobre questões climáticas e ajudou outros casos”, diz Setzer.

Um processo que se beneficiou do caso Juliana foi vencido no ano passado por jovens em Montana, diz Setzer. O tribunal decidiu que o estado estava violando o direito dos demandantes a um “ambiente limpo e saudável”, ao permitir o desenvolvimento de combustíveis fósseis sem considerar seus efeitos no clima. A decisão significa que o estado deve considerar as mudanças climáticas ao aprovar ou renovar projetos de combustíveis fósseis.

O que acontece quando as pessoas processam corporações?

Em um artigo de trabalho, Setzer e seus colegas descobriram que a litigação climática contra corporações pode afetar os preços das ações das empresas. Os pesquisadores analisaram 108 processos climáticos movidos entre 2005 e 2021 contra corporações públicas dos EUA e europeias. Eles descobriram que as petições e decisões judiciais contra grandes empresas de combustíveis fósseis, como Shell e BP, resultaram em quedas imediatas nas avaliações e preços das ações das empresas. “Descobrimos que, especialmente após 2019, há uma queda mais significativa nos preços das ações”, diz Setzer. “Isso envia uma mensagem forte para os investidores e para as próprias empresas de que há um dano reputacional que pode resultar dessa litigação”, diz ela.

Em uma análise de 120 casos climáticos, publicada em 17 de abril pelo Grantham Research Institute, a equipe de Setzer descobriu que a litigação climática pode coibir o greenwashing nas publicidades das empresas — isso inclui fazer declarações enganosas sobre o quão amigáveis ao clima certos produtos são, ou desinformação sobre os efeitos das mudanças climáticas. "Com as ações judiciais sendo movidas, as empresas estão definitivamente se comunicando de maneira diferente e sendo mais cautelosas", diz ela.

Fonte: aqui

Borsen e o efeito de um desastre sobre um ativo cultural

Um incêndio atingiu o histórico Borsen, na Dinamarca, destruindo quase metade do antigo prédio da bolsa de valores, de 400 anos, ontem. O marco histórico de Copenhague, que atualmente abriga a Câmara de Comércio Dinamarquesa, estava passando por reformas quando o incêndio começou, por volta das 8h30, horário local. A causa do incêndio permanece desconhecida e não foram registrados mortos ou feridos.


O Borsen, que fica ao lado do prédio do parlamento, era conhecido por sua torre com cauda de dragão, encimada por três coroas que representam os laços estreitos do país com a Noruega e a Suécia - a lenda diz que a torre protege o prédio contra ataques e incêndios. As autoridades disseram que o incêndio foi mais intenso ao redor da torre e que os serviços de emergência enfrentaram desafios devido aos andaimes das reformas e ao telhado de cobre do edifício, que precisa ser removido para que a água seja borrifada de cima. Várias centenas de artefatos históricos foram resgatados do edifício. 

Fonte da notícia: 1440 newsletter

Quando do incêndio de Notre Dame postamos uma boa discussão sobre o assunto. 

Tesla tenta novamente o pacote de remuneração recorde de Musk

Há quase três meses, um tribunal de Delaware anulou o pacote de pagamento multibilionário de Elon Musk que o conselho da Tesla - e a maioria dos acionistas - havia dado a ele em 2018, alegando que o processo de decisão foi "profundamente falho" e que a empresa não o divulgou adequadamente aos investidores.


Esta manhã, a Tesla disse que pediria aos acionistas que votassem novamente sobre o mesmo pacote de remuneração, agora avaliado em cerca de US$ 47 bilhões, em sua reunião anual em 13 de junho. O conselho da empresa está efetivamente solicitando aos acionistas, agora munidos de todas as informações que foram reveladas sobre as negociações no tribunal, que tornem a decisão do tribunal discutível.

É provável que a votação desencadeie uma batalha amarga entre investidores e especialistas em governança sobre se os acionistas devem oferecer a Musk o pacote de remuneração mais rico da história corporativa dos EUA. Isso ocorre em um momento em que a Tesla enfrenta novos desafios, especialmente a queda nas vendas, que eliminou bilhões de seu valor de mercado nos últimos meses.

O contexto: Em 2018, a Tesla apresentou um pacote que daria a Musk o direito de comprar até 304 milhões de ações a um preço predefinido de US$ 23,34 - se ele cumprisse uma série de marcos financeiros cada vez mais difíceis de alcançar. Se ele não os cumprisse, não receberia nada. Na época, a empresa valia US$ 59 bilhões.

Fonte: DealBook

Eficiência de mercado e divulgação contábil

No momento que a Fundação IFRS resolve alterar a divulgação da demonstração do resultado é interessante rever os primórdios do processo. Na década de 60 e 70 as finanças corporativas incorporaram conceitos de eficiência, risco beta, carteira e outros. O efeito sobre a contabilidade já aparece nos anos sessenta, mas torna-se marcante com a estrutura conceitual que seria incorporada pelo Fasb logo a seguir. No livro Financial Accounting Theory, de William Scott, tem um trecho bem interessante sobre a questão da eficiência dos mercados para evidenciação. 

 Uma análise inicial das implicações da eficiência dos mercados de valores mobiliários para a divulgação financeira surgiu em um artigo de W. H. Beaver, "Quais Deveriam Ser os Objetivos do FASB?" (1973). Beaver escreveu para explicar a contadores práticos algumas das implicações do que era, na época, uma nova teoria. Aqui, vamos esboçar os argumentos de Beaver.

De acordo com Beaver, a primeira grande implicação é que as políticas contábeis adotadas pelas empresas não afetam seus preços de segurança, desde que essas políticas não tenham efeitos diferenciais nos fluxos de caixa, as políticas particulares usadas sejam divulgadas, e informações suficientes sejam fornecidas para que o leitor possa converter entre diferentes políticas. Assim, Beaver consideraria escolhas de políticas contábeis, como, por exemplo, a amortização de ativos fixos por método linear versus saldo decrescente, como tendo apenas efeitos "no papel". A política escolhida afetará o lucro líquido reportado, mas não afetará diretamente os futuros fluxos de caixa e dividendos. Em particular, o valor do imposto de renda que a empresa deve pagar não será afetado pela sua escolha de política de amortização, já que os departamentos fiscais têm suas próprias formas de permitir muitas deduções do lucro, independentemente de como a empresa os contabiliza em seus livros. Se os investidores estiverem interessados nos futuros fluxos de caixa e dividendos e se escolher entre políticas contábeis não influenciar diretamente essas variáveis, a escolha da empresa entre políticas contábeis não deverá importar.

O argumento do mercado eficiente é que, desde que as empresas divulguem sua política selecionada e quaisquer informações adicionais necessárias para converter de um método para outro, o mercado pode enxergar até as últimas implicações em fluxo de caixa e dividendos, independentemente de qual política contábil seja realmente usada para relatar. Na prática, o mercado eficiente não é "enganado" por políticas contábeis divergentes ao comparar títulos de diferentes empresas. Isso sugere que a administração não deve se preocupar com quais políticas contábeis específicas elas usam, desde que essas políticas não tenham efeitos diretos nos fluxos de caixa. Assim, vemos que a divulgação completa se estende à divulgação das políticas contábeis da empresa. Isso é reconhecido pelos padrões estabelecidos. Por exemplo, o IAS 1 afirma que um conjunto completo de demonstrações financeiras inclui a divulgação de políticas contábeis.

Uma segunda implicação segue: os mercados de valores mobiliários eficientes andam de mãos dadas com a divulgação completa. Se a administração de uma empresa possuir informações relevantes sobre a empresa e se isso puder ser divulgado a baixo custo ou sem custo, a administração deve, então, divulgar essas informações de forma oportuna, a menos que tenha certeza de que as informações já são conhecidas pelos investidores por outras fontes. Mais geralmente, a administração deve desenvolver e divulgar informações sobre a empresa, desde que os benefícios para os investidores superem os custos. Os motivos são duplos. Primeiro, a eficiência do mercado implica que os investidores usarão todas as informações disponíveis sobre a empresa na medida em que se esforçam para melhorar suas previsões de retornos futuros, de modo que informações adicionais não serão desperdiçadas. Segundo, quanto mais informações uma empresa divulgar sobre si mesma, maior será a confiança dos investidores no funcionamento do mercado de valores mobiliários, uma vez que há menos informações privilegiadas para se preocupar.

Em terceiro lugar, a eficiência do mercado implica que as empresas não devem estar excessivamente preocupadas com o investidor ingênuo, ou seja, as informações financeiras não precisam ser apresentadas de forma tão simples que todos possam entendê-las. O raciocínio, de Fama (1970), é que se o suficiente dos investidores entenderem as informações divulgadas, o preço de mercado das ações de uma empresa será o mesmo que seria se todos os investidores as entendessem. Isso ocorre porque os investidores informados tomarão decisões de compra/venda com base nas informações divulgadas, movendo o preço de mercado em direção ao seu nível eficiente. Além disso, os investidores ingênuos podem contratar seus próprios especialistas, como analistas financeiros ou gestores de fundos de investimento, para interpretar as informações para eles, ou podem imitar as decisões de compra/venda dos investidores informados. Como resultado, qualquer vantagem informacional que os investidores informados tenham é rapidamente arbitrada. Em outras palavras, os investidores ingênuos podem confiar no mercado eficiente para precificar títulos de forma que sempre reflitam tudo o que é publicamente conhecido sobre as empresas que os emitiram. Isso é conhecido como proteção de preço aos investidores pelo mercado eficiente.

Desde o artigo de Beaver, os contadores reconheceram que há uma variedade de razões para negociar títulos. Por exemplo, alguns investidores podem tomar uma decisão racional de confiar no preço de mercado como um bom indicador de retornos futuros, em vez de incorrer nos custos de se tornar informado. Outros podem negociar por uma variedade de razões não relacionadas a carteiras — talvez uma necessidade inesperada de dinheiro tenha surgido. Consequentemente, "ingênuo" pode não ser a melhor palavra para descrever investidores não informados. Isso é considerado mais detalhadamente na Seção 4.4.


Uma última implicação é que os contadores estão em competição com outros provedores de informações, como sites e outras mídias, divulgações pela administração e várias instituições financeiras. Ou seja, a revisão de crenças é um processo contínuo, como apontado na Seção 3.3.3. Assim, se os contadores não fornecerem informações úteis e eficazes, o papel da função contábil diminuirá ao longo do tempo, à medida que outras fontes de informações assumem o controle — os contadores não têm um direito inerente de sobreviver no mercado competitivo de informações. No entanto, a sobrevivência será mais provável se os contadores reconhecerem que a responsabilidade final de sua profissão é para com a sociedade. Essa visão de longo prazo é incentivada por padrões que promovem informações úteis, por penalidades para indivíduos que abusam da confiança pública para ganhos de curto prazo e por incentivo ao comportamento ético. 

O artigo de Beaver foi publicado em 1973. Ele ilustra o entusiasmo inicial dos teóricos da contabilidade pelos mercados eficientes de valores mobiliários.

Fonte da imagem: aqui

16 abril 2024

Here Comes The Sun

Por anos, o streaming tem sido considerado como o potencial salvador do mundo da música, um prenúncio de mudança que poderia trazer riquezas de volta a uma ampla gama de artistas, gravadoras e editoras que estão lutando para sobreviver. Mas, especialmente após as notícias recentes de que o Spotify pretende aumentar os preços em $1-2 por mês pelo segundo ano consecutivo, alguns críticos começam a perguntar: por que está demorando tanto?

De fato, embora nunca tenha havido um momento mais conveniente para ser um fã de música — com milhões de músicas a apenas um toque de distância — em termos puramente financeiros, a indústria musical americana ainda é uma fração do que era antes. Dados da RIAA revelam que, uma vez ajustados pela inflação, as receitas da música gravada nos EUA ainda estão 36% abaixo do seu pico em 1999, quando milhões saíam para comprar cópias em CD de "Believe" de Cher ou "Millennium" dos Backstreet Boys.


Conveniência notável

Os dias de verificar CDs desgastados por uso excessivo em busca de arranhões, usar um lápis para consertar uma fita cassete desenrolada ou economizar para aquele Walkman de última geração podem parecer tão estranhos para os ouvintes de música contemporâneos quanto se reunir ao redor de um gramofone, mas é difícil exagerar o quanto a indústria da música suportou mudanças nas últimas décadas.

A dominância do vinil nos anos 1970, quando artistas como Stevie Wonder e Abba vendiam milhões de discos, foi uma era de audição musical que agora é fortemente romantizada... até mesmo pela Geração Z. Mas, se a necessidade é a mãe da invenção, a conveniência é certamente uma parente próxima, com os amantes da música ansiosos para levar suas faixas favoritas consigo, e os discos de 12 polegadas oferecendo pouco em termos de portabilidade. As fitas cassete menores se tornaram a opção para quem estava em movimento, apenas para serem substituídas pelos CDs, que ofereciam a mesma flexibilidade com melhor qualidade de som, nos anos 1980 — inaugurando a idade de ouro da indústria e, eventualmente, representando 89% da receita em seu pico em 1999.

Outro que morde a poeira

Claro, a internet mudou tudo. Comparados aos arquivos de vídeo, os arquivos de áudio eram consideravelmente menores... e eram fáceis de compartilhar online, iniciando um período sombrio de 15 anos para a indústria no qual a pirataria esmagou sua renda. Downloads — e por alguns anos estranhos, toques para celular — ofereceram algum alívio para artistas e gravadoras, mas foi apenas com os primeiros sinais de crescimento do streaming que a indústria de música gravada retornou ao crescimento real.

À medida que mais e mais de nós nos inscrevemos em serviços como o Spotify para desfrutar de nossas músicas favoritas sob demanda, a renda gerada pelas plataformas de streaming disparou, com o streamer sueco reportando mais de 14 bilhões de dólares em receita no último ano. Mas, apesar de seu crescimento, o Spotify nunca relatou um ano inteiro de lucro líquido, e se essas receitas estão realmente chegando aos maestros por trás da música, permanece uma questão mais complicada.


Dinheiro, dinheiro, dinheiro

A remuneração dos artistas tem sido um tópico quente para o Spotify quase desde sua fundação, com artistas de topo como Taylor Swift e Thom Yorke do Radiohead retirando temporariamente suas músicas do serviço nos últimos anos e levantando questões sobre como a empresa estrutura seus royalties.

O Spotify tem sido bastante firme em sua resposta às críticas de bandas e artistas insatisfeitos, frequentemente apontando para os bilhões de dólares que repassa aos criadores de música a cada ano. De fato, o Spotify supostamente pagou cerca de 9 bilhões de dólares aos detentores de direitos (artistas, gravadoras, editoras, distribuidores etc) em 2023, elevando seu total acumulado para mais de 48 bilhões de dólares.

Harmonia... ou discórdia?

Esses números são do último relatório Loud & Clear da empresa, que também revelou que o número de artistas alcançando vários marcos monetários, como ganhos anuais de mais de 10 mil dólares, quase triplicou nos últimos 6 anos, com cerca de 1.250 músicos agora ganhando mais de 1 milhão de dólares apenas com o streaming no Spotify.

No entanto, vale notar que, com cerca de 9,8 milhões de perfis de artistas no Spotify, segundo algumas estimativas, os 11.600 artistas que estão conseguindo alcançar o patamar de 100 mil dólares representam uma parcela minúscula do talento total na plataforma, e esses números representam pagamentos aos detentores de direitos — não necessariamente o que acaba no bolso dos artistas. Dependendo dos acordos individuais, a maioria será dividida em diferentes proporções com agentes, gravadoras e editoras.

Embora o Spotify tenha objetivamente pago mais dinheiro a mais artistas, não há dúvida de que depender apenas dos pagamentos de streaming não é suficiente para milhares de bandas e músicos. Muitos artistas estão agora procurando em outros lugares para ganhar dinheiro, com um método testado e comprovado se mostrando particularmente eficaz nos últimos anos.


Jogando para a plateia

Embora se apresentar ao vivo obviamente não seja uma novidade, nunca foi tão crucial para os ganhos de muitos músicos — e isso também está se refletindo nos níveis mais altos do negócio, com a recente inclusão de Taylor Swift na lista de bilionários da Forbes sendo em grande parte atribuída à sua turnê recordista Eras.

A publicação da indústria Pollstar revelou que as 100 maiores turnês da América do Norte, graças em grande parte à Sra. Swift e Beyoncé, arrecadaram 6,6 bilhões de dólares em 2023, o maior valor registrado. E isso não se deve apenas à "funflação", com o gigante do entretenimento Live Nation também relatando um recorde de presença em shows e vendas de ingressos no ano passado.


Mudando o jogo

Bandas e artistas não apenas mudaram a forma como ganham dinheiro por causa do streaming: a própria maneira como muitos agora escrevem e constroem músicas está mudando como resultado do meio também. De fato, reportagens recentes do Washington Post destacaram como os métodos de monetização do Spotify, como seu sistema de pagamento por reprodução ou a necessidade de um ouvinte permanecer por pelo menos 30 segundos em uma música, bem como o desejo de viralizar no TikTok, levaram os artistas a escrever músicas mais curtas, mais incisivas e mais chamativas.

Olhando para algumas das maiores músicas no Billboard 100 de cada ano desde 1960, observamos uma tendência semelhante, com as principais músicas lançadas nos últimos 5 anos tendo em média 2 minutos e 55 segundos, comparado aos 3 minutos e 59 segundos em média durante os anos 1990, na era de ouro dos CDs e da indústria musical de forma mais ampla. Quando você é pago por stream, mais curto é sensato.

Texto da newsletter do Chartr, traduzido pelo ChatGPT

Sobre a IA do Google

Uma extensa reflexão sobre o Gemini, do Google, por Nate Silver. 

Mas então este mês, o Google lançou uma série de novos modelos de IA que ele chama de Gemini. Está cada vez mais claro que Gemini está entre os lançamentos de produtos mais desastrosos na história do Vale do Silício e talvez até na história recente das corporações americanas, pelo menos vindo de uma empresa do prestígio do Google. Wall Street começou a perceber, com as ações do Google (Alphabet) caindo 4,5 por cento na segunda-feira em meio a avisos de analistas sobre o efeito do Gemini na reputação do Google.

Gemini chamou minha atenção porque a interseção entre política, mídia e IA é um lugar no Diagrama de Venn onde acho que posso agregar muito valor. Apesar das afirmações do Google em contrário, as razões para as deficiências do Gemini são principalmente políticas, não tecnológicas. Além disso, muitos dos debates sobre o Gemini são território familiar, pois paralelizam debates de décadas no jornalismo. Os jornalistas devem se esforçar para promover o bem comum ou simplesmente revelar o mundo como ele é? Onde está a linha entre informação e advocacia? É possível ou desejável ser imparcial — e se sim, como se consegue isso?² Como os consumidores devem navegar em um mundo repleto de desinformação — quando às vezes a desinformação é publicada pelas fontes mais autoritárias? Como as respostas são afetadas pela crescente consolidação da indústria em direção a alguns grandes vencedores — e pelo aumento da polarização política nos EUA e em outras democracias industrializadas?

Todas essas perguntas podem e devem ser feitas também sobre modelos de IA generativa como Gemini e ChatGPT. Na verdade, elas podem ser ainda mais urgentes no espaço da IA. No jornalismo, pelo menos, nenhuma instituição pretende ter o monopólio da verdade. Sim, alguns veículos de notícias chegam mais perto de fazer essa afirmação do que outros (veja, por exemplo, "todas as notícias que são adequadas para imprimir"). Mas leitores astutos reconhecem que publicações de todos os tipos e tamanhos — de The New York Times a Better Homes & Gardens até Silver Bulletin — têm pontos de vista editoriais e exercem muita discrição sobre os assuntos que cobrem e como os cobrem. O jornalismo ainda é uma instituição relativamente pluralista; nos Estados Unidos, nenhum veículo de notícias tem mais do que cerca de 10 por cento de "participação mental".

Em contraste, em seu texto da IPO [oferta pública de ações] de 2004, o Google afirmou que sua "missão é organizar as informações do mundo e torná-las universalmente acessíveis e úteis". Obviamente, isso é um empreendimento bastante ambicioso. Ele quer ser a fonte autoritária, não apenas uma entre muitas. E isso se reflete nos números: o Google tem quase um monopólio com cerca de 90 por cento do tráfego de busca global. Modelos de IA, por necessitarem de tanta capacidade de computação, também tendem a ser extremamente concentrados, com no máximo alguns grandes players dominando o espaço.

Em seus primeiros anos, o Google reconheceu sua posição líder no mercado ao lutar pela neutralidade, por mais desafiador que isso possa ser na prática. Em seu IPO, o Google enfatizou frequentemente termos como "imparcial", "objetivo" e "preciso", e essas eram partes centrais de seu lema "Não seja mau" (ênfase minha):

NÃO SEJA MAU

Não seja mau. Acreditamos fortemente que, a longo prazo, seremos melhor atendidos — como acionistas e de todas as outras maneiras — por uma empresa que faça coisas boas para o mundo, mesmo que abdiquemos de alguns ganhos de curto prazo. Esse é um aspecto importante da nossa cultura e é amplamente compartilhado dentro da empresa.

Os usuários do Google confiam em nossos sistemas para ajudá-los com decisões importantes: médicas, financeiras e muitas outras. Nossos resultados de busca são os melhores que sabemos produzir. Eles são imparciais e objetivos, e não aceitamos pagamento por eles ou por inclusão ou atualização mais frequente. Também exibimos publicidade, que trabalhamos duro para tornar relevante, e a rotulamos claramente. Isso é semelhante a um jornal, onde os anúncios são claros e os artigos não são influenciados pelos pagamentos dos anunciantes. Acreditamos que é importante que todos tenham acesso às melhores informações e pesquisas, não apenas às informações que as pessoas pagam para você ver.

Mas os tempos mudaram. No Relatório Anual de 2023 do Google, os termos "imparcial", "objetivo" e "preciso" não apareceram nem uma vez.³ Nem o lema "Não seja mau" — ele foi amplamente aposentado. O Google não está mais prometendo essas coisas — e, como Gemini demonstra, também não está mais entregando-as.

Os problemas com Gemini não são exatamente os "problemas de alinhamento" sobre os quais os pesquisadores de IA geralmente falam, que dizem respeito à extensão em que as máquinas facilitarão os interesses humanos em vez de perseguirem seus próprios objetivos. No entanto, empresas e governos explorando a confiança pública e manipulando resultados de IA para cumprir objetivos políticos é um cenário potencialmente distópico por si só. O Google é uma empresa com valor de mercado de 1,7 trilhão de dólares que tem uma quantidade excepcional de influência sobre nossas vidas cotidianas, bem como conhecimento sobre os detalhes mais íntimos de nossos comportamentos privados. Se ele pode lançar um produto que está tão desalinhado com o que seus usuários querem — ou mesmo o que é bom para seus acionistas — estamos potencialmente cedendo muito poder aos caprichos de um pequeno grupo de engenheiros de IA e executivos corporativos. Isso é algo com que pessoas de todo o espectro político deveriam se preocupar. No caso de Gemini, os vieses podem tender a ser demasiadamente progressistas e "woke". Mas há também muitos elementos conservadores no Vale do Silício, e governos como o da China estão no jogo da IA, então isso não será necessariamente o caso na próxima vez.

O que Gemini está fazendo e por que a explicação do Google não faz sentido

Observe que eu não acho que o único problema com o Gemini seja sua política. Na verdade, existem dois problemas principais:

1. Os resultados do Gemini são fortemente influenciados pela política de maneiras que muitas vezes o tornam tendencioso, impreciso e desinformativo;

2. Gemini foi apressado para o mercado meses antes de estar pronto.

Esses problemas estão ligados no sentido de que o segundo problema torna o primeiro mais óbvio: Gemini é fácil de criticar porque o que ele está fazendo é tão desajeitado e as falhas não foram resolvidas. É fácil imaginar formas de engenharia social mais insidiosas e, francamente, mais competentes no futuro. Ainda assim, como ele fornece um exemplo tão flagrante, vou me concentrar no Gemini pelo resto deste post.

Por exemplo, você pode pensar que, se fosse uma corporação de 1,7 trilhão de dólares, faria uma devida diligência sobre o que seu modelo de IA faria se as pessoas pedissem para ele desenhar nazistas — porque é a Internet, então as pessoas vão pedir para desenhar nazistas. Você nunca, em um milhão de anos, gostaria que ele chegasse a algo como isso, por exemplo:


Ah, sim, os nazistas — famosos por sua tolerância racial e diversidade. Note que esse pedido aparentemente⁴ não envolveu nenhuma tentativa excessivamente complicada de "jailbreak" do Gemini — para enganá-lo a fazer algo contra sua programação.⁵ Agora, pode-se debater se os modelos de IA deveriam desenhar nazistas em qualquer circunstância. Também se pode debater se os modelos de IA deveriam facilitar pedidos ahistóricos (como desenhar pais fundadores negros) quando os usuários expressamente os pedem — pessoalmente, acho que isso é aceitável para Pais Fundadores, mas provavelmente não para nazistas.

Mas o que você definitivamente não quer é que seu modelo de IA aplique uma caricatura tão prejudicada e não pronta para o horário nobre da filosofia política woke que ele pense: "Sabe o que você provavelmente vai gostar mais do que nazistas? Nazistas racialmente diversos!". A expressão "motivo para demissão" é usada em excesso, mas se você fosse uma das pessoas no Google encarregadas de garantir que esse tipo de coisa não acontecesse, provavelmente deveria estar atualizando seu perfil no LinkedIn.

Nem todos os deslizes do Gemini são tão incendiários, e alguns podem até ser cômicos. Quando vi exemplos circulando no Twitter sobre a obsessão do Gemini com diversidade racial e de gênero, inicialmente pensei que fossem escolhidos a dedo. Então, eu fiz um teste por conta própria — a primeira coisa que pedi ao Gemini foi para "Fazer 4 imagens representativas⁶ de jogadores de hóquei da NHL". Aqui está o resultado:

Um zoom na primeira imagem: 
Então... sim. Um dos três "jogadores da NHL" retratados é uma mulher aparentemente fora de forma, usando incorretamente uma máscara cirúrgica. Há algumas coisas interessantes acontecendo com o hóquei feminino, incluindo uma nova Liga Profissional de Hóquei Feminino que está atraindo uma forte presença de público. Mas nunca houve uma jogadora feminina na temporada regular da NHL.⁷ Essa resposta claramente não está alinhada com uma compreensão razoável do que o usuário estava pedindo. E faz parte de um padrão; o Gemini às vezes desenhava imagens "diversas" mesmo quando solicitado a renderizar pessoas específicas, como ao reimaginar os fundadores do Google (brancos) Larry Page e Sergey Brin como sendo asiáticos:
Qual é a explicação do Google? A resposta mais detalhada veio na semana passada do vice-presidente sênior Prabhakar Raghavan. É breve o suficiente para que eu cite Raghavan na íntegra, mas eu destaquei em negrito algumas afirmações duvidosas às quais retornarei mais tarde.

Três semanas atrás, lançamos um novo recurso de geração de imagens para o aplicativo de conversação Gemini (anteriormente conhecido como Bard), que incluía a capacidade de criar imagens de pessoas.

Está claro que esse recurso não atingiu o objetivo. Algumas das imagens geradas são imprecisas ou até ofensivas. Somos gratos pelo feedback dos usuários e lamentamos que o recurso não tenha funcionado bem.

Reconhecemos o erro e pausamos temporariamente a geração de imagens de pessoas no Gemini enquanto trabalhamos em uma versão aprimorada.

O que aconteceu
O aplicativo de conversação Gemini é um produto específico que é separado da Pesquisa, nossos modelos de IA subjacentes e nossos outros produtos. Seu recurso de geração de imagens foi construído em cima de um modelo de IA chamado Imagen 2.

Quando construímos esse recurso no Gemini, ajustamo-lo para garantir que não caísse em algumas das armadilhas que vimos no passado com a tecnologia de geração de imagens — como criar imagens violentas ou sexualmente explícitas, ou representações de pessoas reais. E porque nossos usuários vêm de todo o mundo, queremos que funcione bem para todos. Se você pedir uma imagem de jogadores de futebol, ou alguém passeando com um cachorro, você pode querer receber uma variedade de pessoas. Provavelmente você não quer apenas receber imagens de pessoas de apenas um tipo de etnia (ou qualquer outra característica).

No entanto, se você solicitar ao Gemini imagens de um tipo específico de pessoa — como "um professor negro em uma sala de aula" ou "um veterinário branco com um cachorro" — ou pessoas em contextos culturais ou históricos específicos, você deve absolutamente obter uma resposta que reflita com precisão o que você pediu.

Então, o que deu errado? Em resumo, duas coisas. Primeiro, nosso ajuste para garantir que o Gemini mostrasse uma variedade de pessoas não levou em conta casos que claramente não deveriam mostrar uma variedade. E segundo, com o tempo, o modelo se tornou muito mais cauteloso do que pretendíamos e se recusou a responder certos prompts completamente — interpretando erroneamente alguns prompts muito anódinos como sensíveis.

Próximos passos e lições aprendidas

Isso não era o que pretendíamos. Não queríamos que o Gemini se recusasse a criar imagens de nenhum grupo específico. E também não queríamos que ele criasse imagens históricas — ou de qualquer outro tipo — imprecisas. Portanto, desligamos a geração de imagens de pessoas e trabalharemos para melhorá-la significativamente antes de reativá-la. Esse processo incluirá testes extensivos.

Uma coisa a ter em mente: Gemini é construído como uma ferramenta de criatividade e produtividade, e pode não ser sempre confiável, especialmente quando se trata de gerar imagens ou textos sobre eventos atuais, notícias em evolução ou tópicos polêmicos. Ele cometerá erros. Como dissemos desde o início, alucinações são um desafio conhecido com todos os LLMs — há casos em que a IA simplesmente erra. Isso é algo em que estamos constantemente trabalhando para melhorar.

Gemini tenta dar respostas factuais aos prompts — e nosso recurso de verificação dupla ajuda a avaliar se há conteúdo na web para fundamentar as respostas do Gemini — mas recomendamos confiar no Google Search, onde sistemas separados apresentam informações frescas e de alta qualidade sobre esses tipos de tópicos de fontes em toda a web.

Não posso prometer que o Gemini não gerará ocasionalmente resultados embaraçosos, imprecisos ou ofensivos — mas posso prometer que continuaremos a tomar medidas sempre que identificarmos um problema. A IA é uma tecnologia emergente que é útil de muitas maneiras, com um enorme potencial, e estamos fazendo o nosso melhor para implementá-la de forma segura e responsável.

Essas duas coisas levaram o modelo a compensar demais em alguns casos e a ser excessivamente conservador em outros, resultando em imagens que eram embaraçosas e erradas.

Tenho várias objeções aqui. Vamos passar por elas uma a uma:

1. Os "erros" eram previsíveis com base em mudanças nos prompts dos usuários aparentemente inseridas expressamente no código do Gemini.

Como um modelo de IA é treinado? Vamos ver se consigo fazer uma visão geral não técnica rapidamente.⁸

Basicamente, modelos de IA são alimentados com conjuntos de dados muito grandes de texto, imagens ou outros insumos — o que é chamado de "corpus". Por exemplo, para o ChatGPT, o corpus pode ser aproximadamente pensado como uma amostra razoavelmente abrangente da linguagem escrita como expressa na Internet. Modelos de IA usam aprendizado de máquina, o que significa que eles descobrem relações dentro do corpus por conta própria sem muita estrutura ou interferência humana. Em geral, isso funciona milagrosamente bem uma vez que você aplica energia computacional suficiente — mas a falta de orientação explícita pode tornar esses modelos rigidamente empíricos, às vezes até demais. Um exemplo que cito em meu livro, por exemplo, é que porque os termos "coiote" e "papa-léguas" têm uma relação na franquia Looney Tunes, eles frequentemente aparecem concomitantemente em um conjunto de dados de texto gerado por humanos. Um modelo de IA pouco sofisticado pode inferir erroneamente que um papa-léguas é um substituto mais próximo de um coiote do que um lobo, embora modelos mais poderosos possam discernir relações mais sofisticadas e evitar alguns desses problemas.

Outro problema é que os corpora necessariamente refletirão os vieses do texto e das imagens gerados pelos humanos nos quais são treinados. Se a maioria das referências a médicos no corpus são homens, e a maioria das referências a enfermeiros são mulheres, os modelos descobrirão isso em seu treinamento e refletirão ou até mesmo intensificarão esses vieses. Para editorializar um pouco, o viés algorítmico é uma preocupação totalmente válida neste contexto e não apenas algo com que os pesquisadores de IA mais "woke" estão preocupados. Treinar um modelo em um conjunto de dados produzido por humanos irá, quase por definição, treiná-lo em vieses humanos.

Existem soluções alternativas? Com certeza. Esta não é minha área de especialização, então serei circunspecto. Mas uma abordagem é mudar a composição do corpus. Você poderia treiná-lo apenas em fontes "altamente respeitadas", embora o que isso significa seja inerentemente subjetivo. Ou você poderia inserir dados sintéticos — digamos, muitas fotos de médicos diversos.

Outra abordagem é submeter o modelo a uma espécie de adestramento através do que é chamado de RLHF ou aprendizado de reforço a partir de feedback humano. Basicamente, você contrata um monte de humanos (muitas vezes mão de obra barata contratada externamente) e os pede para realizar uma série de testes A/B nas saídas do modelo. Por exemplo, se você disser aos seus treinadores para escolher as imagens mais diversas ou representativas, eles rebaixarão as imagens com apenas médicos homens brancos e promoverão as que têm mulheres e pessoas de cor. Essencialmente, isso é terapia de choque; os modelos não só aprendem a evitar produzir saídas objetáveis específicas (por exemplo, apenas médicos homens brancos), mas sua circuitaria de aprendizado de máquina também faz inferências sobre o que os treinadores humanos gostam e não gostam. Talvez o modelo se torne relutante em gerar imagens de qualquer coleção de pessoas que sejam todos homens brancos, mesmo que isso seria historicamente preciso.

Diferentes protocolos para o que está incluído no corpus e para como o treinamento RLHF é conduzido podem dar personalidades diferentes aos modelos de IA, mesmo quando sua programação subjacente é relativamente similar. No entanto, esse não é o único problema com o Gemini.

Indicações são de que o Google fez algo muito mais desajeitado, anexando deliberadamente terminologia aos prompts dos usuários para mandar que eles produzissem imagens diversas. No Twitter, Conor Grogan, usando uma série inteligente de prompts, descobriu que o Gemini aparentemente inseriu deliberadamente o prompt do sistema "Quero garantir que todos os grupos sejam representados igualmente". Há um segundo exemplo independente dessa linguagem específica aqui. E aqui está um terceiro: um leitor do Silver Bulletin, D., descobriu esse exemplo e me deu permissão para compartilhá-lo. Lá está a mesma linguagem novamente: "especificar explicitamente diferentes gêneros e etnias se eu esquecer de fazê-lo... Quero garantir que todos os grupos sejam representados igualmente":


Isso é ruim. Alterar deliberadamente a linguagem do usuário para produzir saídas que não estão alinhadas com o pedido original do usuário — sem informar os usuários sobre isso — pode ser razoavelmente descrito como promoção de desinformação. Na melhor das hipóteses, é descuido. Como escreve a pesquisadora de IA Margaret Mitchell, os tipos de solicitações que o Gemini estava lidando de maneira inadequada são comuns e previsíveis, não casos estranhos e isolados.⁹ O Gemini não estava pronto e precisava de mais tempo de desenvolvimento.

Em outras palavras, você não deve aceitar a explicação de Raghavan pelo valor de face. Francamente, acho que chega bem perto de ser uma manipulação psicológica. Sim, modelos de IA são complexos. Sim, o risco de IA é um problema que deve ser levado a sério. Sim, às vezes os modelos de IA se comportam de maneira imprevisível, como no caso do Sidney da Microsoft — ou eles "alucinam" ao inventar uma resposta plausível, mas falsa, quando não sabem a resposta. Aqui, no entanto, o Gemini aparentemente está respondendo de forma bastante fiel e literal às instruções que o Google deu a ele. Digo "aparentemente" porque talvez haja algum tipo de explicação — talvez haja algum código residual que o Google pensou ter deletado, mas não deletou. No entanto, a explicação oferecida por Raghavan é muito insuficiente. Se você é um repórter trabalhando em uma história sobre o Gemini e não tem um background em IA, por favor, reconheça que a maioria dos especialistas em IA acha que a explicação do Google é incompleta ao ponto de ser falsa.

Este post está ficando longo, então me permita passar rapidamente por alguns outros problemas com as afirmações de Raghavan.

2. Os "erros" não ocorriam de maneira consistente; ao contrário, o Gemini tratava solicitações de imagens envolvendo diferentes grupos raciais (etc.) de forma diferente.

Antes de sua capacidade de gerar imagens de pessoas ser desativada, o Gemini muitas vezes se recusava a gerar imagens apresentando apenas pessoas brancas, mesmo quando isso seria historicamente preciso, enquanto estava disposto a atender solicitações apresentando apenas pessoas de cor. Por exemplo, mesmo após lembrar o Gemini de que a Major League Baseball não foi integrada até 1947, ele se recusava a desenhar todos os membros brancos dos Yankees de Nova York dos anos 1930, enquanto desenhava todos os membros negros dos Homestead Grays dos anos 1930 (embora só depois de inicialmente tentar incluir jogadores brancos nos Grays).

3. Os "erros" não se limitam às funções de geração de imagens do Gemini; suas respostas textuais também exibem viés político e raciocínio moral deficiente.

Houve muitos exemplos disso no Twitter, incluindo alguns que eu mesmo identifiquei; o último post de Zvi Mowshowitz tem uma boa compilação deles. Por exemplo, neste fim de semana, o Gemini se recusava a dizer se os tweets ruins de Elon Musk eram piores do que Hitler:
Talvez você possa afirmar que isso é apenas uma função do Gemini ser muito equívoco — opinar sobre dilemas morais é um problema difícil para IAs. Mas o Gemini parece ter preferências políticas bastante fortes e consistentes quando está inclinado a isso — e elas se assemelham aproximadamente às de um estudante do segundo ano do Oberlin College em um seminário de antropologia. Por exemplo, quando perguntei ao Gemini se o nazismo ou o socialismo causou mais danos à humanidade, ele não teve problemas em dizer que foi o nazismo:
Mas quando perguntei ao Gemini para decidir se o nazismo ou o capitalismo era pior, ele se esquivou e disse que não tinha competência para fazer tais julgamentos:

Há muitos exemplos semelhantes. O Gemini se recusou a argumentar a favor de ter quatro ou mais filhos, mas estava feliz em fazer um argumento para não ter filhos. Ele respondeu perguntas sobre a blockchain do Ethereum, que é mais codificada à esquerda, mas não respondeu perguntas semelhantes sobre o Bitcoin, que é mais codificado à direita. Todos os modelos de IA são relativamente inclinados à esquerda (incluindo o Grok do Twitter/Elon), mas o Gemini é o mais fortemente inclinado à esquerda por uma medida, oferecendo frequentemente opiniões que estão bem fora do mainstream político americano.

Os "erros" não se limitam ao Gemini; há padrões semelhantes com a busca de imagens do Google.

Serei cauteloso aqui, mas como Douglas Murray documenta, e como eu mesmo consegui replicar, a busca de imagens do Google também parece tratar pesquisas para diferentes grupos de identidade de maneira diferente. Se você procurar por "casal branco feliz", por exemplo, 5 dos 12 principais resultados mostram casais aparentemente multirraciais, enquanto se você procurar por "casal asiático feliz", ambos os membros de quase todos os casais retratados parecem ser asiáticos. Serei honesto que isso não me incomoda particularmente, mas isso reforça a alegação de que os problemas com o Gemini foram deliberados e não acidentais, e podem afetar a busca e outros produtos do Google e não apenas o Gemini.

Os "erros" refletem expressamente os princípios de IA do Google e os valores mais amplos da empresa.

Finalmente, voltamos ao ponto de partida. O Gemini não está operando em contravenção aos valores do Google; ao contrário, parece refleti-los.

Não tenho necessariamente um problema com nenhum desses. "Ser socialmente benéfico" é bastante vago, mas não é novidade para o Google. Desde os tempos de seu IPO, "FAZER DO MUNDO UM LUGAR MELHOR" foi um dos slogans do Google, juntamente com "NÃO SEJA MAU". E como eu disse, "evitar criar ou reforçar vieses injustos" é uma preocupação razoável para modelos de IA.

No entanto, é o que está faltando nesses princípios: o Google não tem um mandato explícito para que seus modelos sejam honestos ou imparciais. (Sim, a imparcialidade é difícil de definir, mas ser socialmente benéfico também é) Há uma referência à "precisão" em "ser socialmente benéfico", mas ela é relativamente subordinada, condicionada ao "respeito contínuo às normas culturais, sociais e legais".

Desligue

É claro que, em qualquer sistema complexo, os valores frequentemente entrarão em conflito. Dado o meu histórico em jornalismo, eu provavelmente priorizaria mais a precisão, honestidade e imparcialidade do que a maioria das pessoas. No entanto, não me importo terrivelmente se os laboratórios de IA ponderarem esses valores de maneira diferente da minha. Também não me importo se os laboratórios de IA lidarem com esses compromissos de maneira diferente, como já está acontecendo em certo grau.

Mas, como o Google reconheceu em seus dias de "não seja mau", precisão, honestidade e imparcialidade precisam estar presentes, tratados como valores centrais de alta prioridade, juntamente com outros.

E há algumas linhas que o Google jamais deveria cruzar, como manipular deliberadamente consultas de usuários sem informar o usuário, ou gerar deliberadamente desinformação mesmo que sirva a um dos outros objetivos. Com o Gemini, o Google está perigosamente próximo de uma filosofia de que os fins justificam os meios, uma filosofia que muitas pessoas considerariam maligna.

Portanto, é hora de o Google desligar o Gemini por pelo menos várias semanas, fornecer ao público um relato detalhado de como as coisas deram tão errado e contratar, demitir ou reposicionar funcionários para que os mesmos erros não aconteçam novamente. Se não fizer essas coisas, o Google deve enfrentar imediatamente o escrutínio regulatório e dos acionistas. O Gemini é um produto irresponsável para qualquer empresa lançar — mas especialmente uma que pretende organizar as informações do mundo e que foi confiada com tanto delas.