Inteligência Artificial

ChatGPT consome 17 mil vezes mais eletricidade do que a média das casas nos EUA

Ainda assim, estimar quanto de eletricidade a indústria de IA em expansão consome é difícil

Publicado em 11 de março de 2024 às 06h14.

O chatbot da OpenAI, ChatGPT, possivelmente está consumindo mais de meio milhão de quilowatts-hora de eletricidade para responder a cerca de 200 milhões de solicitações por dia. As informações são da revista The New Yorker.

Segundo a publicação, a média de consumo das residências nos EUA é de 29 quilowatts-hora diariamente. Isto é, o ChatGPT usa mais de 17 mil vezes essa quantidade de eletricidade no mesmo período.

Isso indica que quanto mais IA generativa for adotada, maior será o consumo de energia mundialmente. Por exemplo, se o Google integrasse esse tipo de tecnologia em todas as pesquisas, consumiria cerca de 29 bilhões de quilowatts-hora por ano, de acordo com cálculos feitos por Alex de Vries, cientista de dados do Banco Nacional Holandês, em um artigo para o jornal de energia sustentável Joule. Isso é mais eletricidade do que países como Quênia, Guatemala e Croácia consomem em um ano, segundo a The New Yorker.

Leia também: ChatGPT e Llama 2 podem ter viés sexista, alerta Unesco

Ainda assim, estimar quanto de eletricidade a indústria de IA em expansão consome é difícil. Há considerável variabilidade em como os grandes modelos de IA operam, e as gigantes de tecnologia - que têm impulsionado o boom - não são transparentes sobre seu uso de energia, segundo a publicação The Verge.

Em seu artigo, no entanto, de Vries chegou a uma estimativa aproximada com base em números divulgados pela Nvidia, a queridinha do boom da IA. De acordo com dados da New Street Research reportados pela emissora norte-americana CNBC, a fabricante de chips tem cerca de 95% da participação de mercado para processadores gráficos.

De Vries estimou no artigo que até 2027, todo o setor de IA consumirá entre 85 a 134 terawatts-hora (um bilhão de vezes um quilowatt-hora) anualmente.

"Você está falando sobre o consumo de eletricidade da IA potencialmente sendo meio por cento do consumo global de eletricidade até 2027", disse de Vries ao The Verge. 

Em comparação, a Samsung usa quase 23 terawatts-hora, enquanto gigantes da tecnologia como Google usam um pouco mais de 12 terawatts-hora, e a Microsoft usa um pouco mais de 10 terawatts-hora para operar centros de dados, redes e dispositivos de usuário, de acordo com os cálculos da publicação Business Insider com base em um relatório da Consumer Energy Solutions.

Acompanhe tudo sobre:ChatGPTEletricidadeInteligência artificial

Mais de Inteligência Artificial

Centro de IA da UFG destaca desafios para o Plano Nacional de Inteligência Artificial

Rival do ChatGPT teria sido treinado para burlar direitos autorais – e é processado por escritores

Apenas 20% das vagas em IA são ocupadas por mulheres. É preciso corrigir isso, afirma Moojan Asghari

OpenAI vai permitir GPT 'personalizado' para empresas

Mais na Exame