A inteligência artificial pode acabar por falta de energia
O consumo energético da infraestrutura necessária para treinar modelos de IA pode encerrar o rali das big techs. Confira o artigo de Tayllis Zatti
Plataforma de conteúdo
Publicado em 16 de setembro de 2024 às 15h00.
Por Tayllis Zatti, head de conteúdo da Faz Capital
As empresas de tecnologia americanas estão em um longo rali, disso ninguém duvida. Nem é preciso ser investidor para reconhecer as “magnificent seven”, as sete gigantes da tecnologia dos Estados Unidos:
- Apple
- Microsoft
- Amazon
- Nvidia
- Alphabet
- Meta
- Tesla.
Essas companhias não apenas dominam o mercado de ações, mas têm sido vistas como líderes incontestáveis da inovação tecnológica, em grande parte graças ao avanço da Inteligência Artificial (IA).
O que impulsiona esses gigantes é a promessa de que a IA continuará a ser o tema dominante nas próximas décadas. De fato, as ações dessas empresas elevaram os principais índices de ações dos EUA, como o S&P 500 e o Nasdaq Composite, a máximos históricos em 2024.
Um exemplo disso é a Nvidia, que se destacou com uma valorização de mais de 3.000% nos últimos cinco anos, resultado de sua liderança no mercado de chips de IA, com 80% de participação. Empresas como Apple e Microsoft, por sua vez, também têm apostado pesado na IA, consolidando seus lugares como as duas empresas mais valiosas do mundo.
Entretanto, mesmo com o entusiasmo, é preciso lembrar que todo rali é, em última instância, passageiro. As ações dessas empresas duplicaram o retorno do Nasdaq 100 em 2023, mas é difícil prever até quando o crescimento exponencial vai se manter.
O verdadeiro problema, pouco discutido, está no custo energético da IA
À medida que tecnologias como o ChatGPT e o Midjourney ganham popularidade, o consumo de energia disparou. Relatórios indicam que a IA poderia consumir anualmente tanta eletricidade quanto a Irlanda, cerca de 29,3 terawatts-hora.
Esse dado revela um cenário preocupante para o futuro sustentável das big techs, especialmente em tempos de crise energétic a e esforços globais para reduzir a pegada de carbono.
Os Large Language Models (LLMs), base da IA generativa , são especialmente consumidores de energia. A infraestrutura necessária para treinar esses modelos massivos consome eletricidade em níveis alarmantes, grande parte proveniente de fontes não renováveis. Isso traz desafios não apenas ambientais, mas também econômicos, pois o custo da energia envolvida no desenvolvimento da IA pode se tornar inviável para muitas empresas e investidores.
E como vão ficar as big techs?
O futuro das gigantes da tecnologia passa a depender não apenas de sua capacidade de inovação, mas também de sua habilidade de lidar com os custos crescentes e os desafios ambientais associados à IA. O entusiasmo atual pode ser apenas uma bolha se essas questões não forem enfrentadas de maneira eficaz.
O rali das big techs americanas pode, portanto, terminar antes do esperado, caso essas empresas não consigam equilibrar seu crescimento com um uso mais eficiente e sustentável de energia.
O que o mercado ainda não está dizendo é que o sucesso da IA pode ter um limite – e esse limite pode ser o custo, tanto financeiro quanto ambiental, que as empresas estão dispostas a pagar.
Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube
Assine nossa newsletter e fique por dentro de todas as novidades