Sobre a Inteligência Artificial, um artigo lembra que a questão do custo é "irrelevante". A OpenAI deve ter gasto um pouco abaixo de 100 milhões de dólares para treinar o GPT, o que é seria pouco:
os últimos 6 meses, percebemos isso que o custo do treinamento é irrelevante. Claro, parece loucura na superfície, dezenas de milhões, senão centenas, de milhões de dólares em tempo de computação para treinar um modelo, mas isso é trivial para gastar para essas empresas. É efetivamente um item de linha da Capex, onde a escala maior sempre produziu melhores resultados.
Nos próximos anos, várias empresas, como Google, Meta e OpenAI / Microsoft, treinarão modelos em supercomputadores. O Meta está gastando mais de US $ 16 bilhões por ano no "Metaverse", o Google gasta US $ 10 bilhões por ano em uma variedade de projetos que nunca serão concretizados. A Amazon perdeu mais de US $ 50 bilhões em Alexa. As criptomoedas desperdiçaram mais de US $ 100 bilhões em nada de valor.
Essas empresas e a sociedade em geral podem e gastarão mais de cem bilhões na criação de supercomputadores que podem treinar um modelo massivo único. Esses modelos massivos podem ser produtizados de várias maneiras.
A verdadeira batalha é que a expansão desses modelos para usuários e agentes custa muito.
Nenhum comentário:
Postar um comentário