Revista Exame

A aposta de 10 bilhões de dólares da Microsoft com o ChatGPT

O que está por trás do acordo entre a empresa fundada por Bill Gates e a startup OpenAI, criadora do ChatGPT

Ilya Sutskever, cientista-chefe, e Greg Brockman, CTO da OpenAI: muita energia para o robô (Divulgação/Divulgação)

Ilya Sutskever, cientista-chefe, e Greg Brockman, CTO da OpenAI: muita energia para o robô (Divulgação/Divulgação)

Bloomberg
Bloomberg

Agência de notícias

Publicado em 16 de fevereiro de 2023 às 06h00.

Para um usuário bombardeando o chatbot da OpenAI na esperança de gerar haikus automatizados sobre a Revolução Americana ou sobre receitas para uma caçarola de porco, a interface básica do produto e suas respostas instantâneas podem parecer simples, até mesmo mágicas. Do outro lado dessas pesquisas, contudo, um imenso volume de trabalho está sendo feito. ChatGPT, o chatbot da OpenAI, exige um poder de computação muito maior para responder a uma pergunta do que o Google leva para responder a uma busca na web. A proposta atual da startup é boa o bastante para inspirar especulações sobre um mundo em que o chatbot e programas como ele assumem uma proporção disruptiva do trabalho que apenas humanos são capazes de executar hoje. Contudo, mesmo que seja para esse rumo que a economia esteja caminhando, chegar lá está muito além da capacidade da startup média.

Os produtos da inteligência artificial generativa ainda têm muitos obstáculos a superar antes de concretizar as esperanças e os medos que têm gerado desde que a OpenAI apresentou o ChatGPT, em novembro. O serviço tem sofrido interrupções frequentes; o problema vem dos desafios técnicos decorrentes de manter no ar qualquer site popular, e não do poder de computação necessário para executar seus modelos de inteligência artificial (IA), segundo a OpenAI. O ChatGPT também tem o potencial de dar informacões incorretas e, em sua versão atual, não possui informação suficiente para responder a perguntas sobre eventos recentes. Essas são questões incômodas com que o chatbot e seus competidores provavelmente terão de lidar por anos.

Escritório do Google nos Estados Unidos: lançamento do robô Bard em meio à pressão com o sucesso do ChatGPT (coldsnowstorm/Getty Images)

Contudo, é provável que o desafio do poder de computação em particular molde os avanços no setor, e potencialmente os próprios produtos. À medida que organizações como a ­OpenAI buscam gerar lucro, podem ter de começar a cobrar por serviços que hoje são gratuitos. Algumas empresas podem buscar maneiras de oferecer produtos mais segmentados, com demandas de computação que não sejam tão intensas. Além disso, o custo da computação já está influenciando quais entidades terão influência sobre os produtos de IA que parecem destinados a moldar o futuro da internet.

Em 23 de janeiro, a Microsoft anunciou um investimento de vários anos na OpenAI. Uma fonte familiarizada com o acordo, que pediu anonimato para revelar detalhes não públicos do negócio, colocou o valor do acerto em 10 bilhões de dólares. Muito desse valor se deve ao fato de a Microsoft ganhar o direito a quase metade dos retornos financeiros da OpenAI em troca de liberar seu acesso da OpenAI ao poder do Azure, rede de computação em nuvem da Microsoft. Outros sistemas de IA de uso geral estão ligados de modo semelhante a uma das grandes empresas de computação em nuvem, ainda que as organizações construindo esses modelos sejam independentes.

Clement Delangue, CEO da Hugging Face, que administra um depositório de modelos de inteligência artificial de código aberto populares entre startups, diz que a indústria corre o risco de “lavagem de dinheiro na nuvem”. O termo descreve o que acontece quando startups têm acesso a um volume suficiente de dinheiro e computação subsidiada para contornar análises sobre a razoabilidade de usar determinadas técnicas para resolver certos problemas. Tal dinâmica deve ser evitada, diz ele, “porque cria alguns tipos insustentáveis de uso de aprendizado de máquinas”. Ele afirma que é importante ter cálculos precisos de quanto os produtos geracionais custam de fato para ser executados.

Faminto por energia

Uma coisa está clara: esses sistemas são monumentalmente caros. O primeiro passo para construir um deles é sugar enormes volumes de dados — textos, fotos ou obras de arte — de toda a internet. Feito isso, tais dados são usados para treinar um modelo de IA. “Para os modelos maiores, esse processo chega a milhões de dólares antes mesmo de botar na conta o custo dos engenheiros especializados, como os especialistas em idiomas”, diz Rowan Curran, analista da Forrester Research. Além disso, quanto mais dados um sistema usa em sua construção, provavelmente de mais poder de computação ele precisa para responder a uma pergunta. Cada nova questão tem de passar por um modelo que inclui dezenas de bilhões de parâmetros, ou variáveis, que o sistema de IA vem aprendendo por meio de sua capacitação e refinamento.

O sistema GPT-3, sobre o qual o ChatGPT foi construído, usa 175 bilhões de parâmetros, que ampliam sua versatilidade ao mesmo tempo que o tornam especialmente faminto por energia. “Muitos dos modelos mais populares da Hugging Face têm cerca de 10 bilhões de parâmetros”, diz Delangue. A Stable Diffusion, da Stability, uma rival de código aberto do Dall-E, um gerador de imagens da OpenAI, tem cerca de 1 bilhão de variáveis. Mas versões subsequentes podem ser ainda maiores, diz Tom Mason, CTO de IA da Stability. “Creio haver uma tendência neste ano para que os modelos fiquem maiores”, afirma. Ao mesmo tempo, ele diz que todas as pessoas no setor estão trabalhando para melhorar a eficiência da tecnologia subjacente de modo que possam compensar esse aumento.

Sam Altman, fundador e CEO da OpenAI: custo alto para cada pesquisa no ChatGPT chama a atenção de investidores (Kevin Dietsch/Getty Images)

Em dezembro, o CEO da ­OpenAI, Sam Altman, tuitou que o custo médio de uma pesquisa no ChatGPT era de “provavelmente um dígito de centavos por bate-papo”. Uma análise da Morgan Stanley colocou o valor em 2 centavos de dólar. É quase sete vezes o custo médio de uma busca no Google, segundo a Morgan Stanley, e pode rapidamente fazer o total se acumular quando combinado a produtos que operam em uma escala tão grande.

Uma porta-voz da OpenAI diz que a empresa tem feito avanços em melhorar a eficiência do chatbot e continua buscando um equilíbrio entre distribuir sua tecnologia de modo tão abrangente quanto possível ao mesmo tempo que busca um caminho para a viabilidade comercial.

“Se todo mundo usar modelos massivos e gerais em vez de menores e mais específicos, é provável que as demandas de computação não sejam sustentáveis neste momento”, diz Delangue. Entretanto, algumas empresas já estão começando a buscar uma abertura, ao criar modelos para atender um mercado específico. “Um caminho para as startups é identificar a área de especialização delas e focar seus modelos de treinamento somente nos dados relevantes”, diz Preeti Rathi, sócio-geral da Icon Ventures em Palo Alto. A Icon investiu na Aisera, empresa que cria um sistema especificamente focado em ajudar a resolver as solicitações de serviço de clientes.

Computação em nuvem Azure, da Microsoft: empresa fundada por Gates quer integrar o robô ChatGPT a outros produtos (Bloomberg/Getty Images)

Especialmente no curto prazo, outras startups vão construir produtos usando modelos gerais feitos pela OpenAI, pela Alphabet (do Google) ou pela Stability AI, e então personalizar esses modelos ou acrescentar dados específicos de domínios a eles para focar mercados específicos, afirma Navrina Singh, CEO da startup Credo AI, que vem trabalhando em sistemas de governança para novas aplicações de IA. Outras companhias estão tentando fabricar produtos que não dependam dos gigantes da tecnologia.

Grandes empresas de nuvem estão ansiosas para trabalhar com startups sedentas por poder de computação, em parte porque elas têm o potencial de se tornar clientes de longo prazo desses gigantes. A unidade de nuvem da Amazon revelou em novembro uma parceria com a Stability AI. O Google tem um sistema semelhante ao do ­ChatGPT chamado LaMDA, que a empresa ainda não lançou publicamente (nota da edição: no início de fevereiro, a Alphabet, dona do Google, lançou o Bard, robô virtual com inteligência artificial, como uma resposta ao ChatGPT), e o The Wall Street Journal informou que já participou de discussões para investir 200 milhões de dólares na ­Cohere, startup de IA que cria softwares de linguagem que os desenvolvedores podem usar para coisas como chatbots. “Há meio que uma guerra terceirizada em curso entre as grandes empresas de nuvem”, diz Matt McIlwain, diretor administrativo do Madrona Venture Group, que investe em startups de IA. “Elas são as únicas que conseguem de fato financiar a construção das [IAs realmente grandes e com zilhões de parâmetros.”

Titãs x startups

Interface do ChatGPT: respostas certeiras para assuntos variados — de história dos Estados Unidos a receitas culinárias (Gabby Jones/Bloomberg)

Após um período extenso de inovação tecnológica durante o qual um punhado de empresas consolidou seu domínio da internet, algumas pessoas veem a IA se desenvolvendo de um modo que só vai fortalecer seu domínio. Já houve apelos por regulamentação do campo emergente, e alguns países ou universidades estão criando supercomputadores públicos como alternativas. Bloom, o maior rival de código aberto do GPT, foi treinado em um supercomputador público francês chamado Jean Zay. Delangue tem dito que um crédito fiscal de pesquisa da França deveria ser ampliado para cobrir os custos de computadores para pesquisa em aprendizado de máquinas, e pediu a outros países que tomem medidas semelhantes.

“Os titãs de tecnologia têm se posicionado bem para evitar serem abatidos”, afirma Curran, da Forrester. “Estamos nos estágios iniciais do que pode ser uma explosão imensa de ideias e criatividade em torno da criação de negócios”, diz ele. “Só que os grandes players estão todos fazendo muito trabalho aqui. Ou seja, a chance de eles serem totalmente surpreendidos por uma startup não é grande.”

Tradução de Fabrício Calado Moreira

Acompanhe tudo sobre:ChatGPTMicrosoft

Mais de Revista Exame

O plano da nova Sabesp: empresa corre para investir R$ 68 bilhões até 2029

Com três filhos, nove netos e três bisnetos, esta amapaense de 76 anos abriu sua primeira startup

De volta ao conselho de administração do Grupo RBS, Nelson Sirotsky fala sobre o futuro da mídia

Novos conceitos: como este engenheiro carioca entendeu que nunca é tarde para começar um negócio

Mais na Exame