Exame Logo

PCs precisarão de mais energia do que o mundo pode gerar

Um relatório revelou que, em 2040, a indústria não será capaz de produzir a quantidade necessária de energia para alimentar os chips dos computadores

Chips: quanto maior a quantidade de transistores, mais potentes eles são (D-Wave Systems Inc.)
DR

Da Redação

Publicado em 26 de julho de 2016 às 15h31.

São Paulo – Desde a criação do computador pessoal no início dos anos 80, as empresas estão desenvolvendo chips cada vez menores, ainda mais potentes e, de quebra, mais baratos. Até agora, essa cadeia se mostrou produtiva. No entanto, para que ela continue a funcionar será preciso de algo que, em 2040, poderá estar em falta: eletricidade .

Segundo um relatório da Associação da Indústria de Semicondutores (SIA), em pouco menos de 25 anos, os chips dos PCs irão precisar de mais energia elétrica do que a produção global pode gerar.

Isso significa que a capacidade da indústria de manter o ritmo da Lei de Moore pode estar à beira do colapso. Formulada por Gordon Moore, co-fundador da Intel , em 1965, a lei indica que o número de transistores que podem ser instalados em um chip dobra a cada 18 meses, sem que seja preciso gastar mais.

No entanto, o que as empresas esqueceram é que uma grande quantidade de transistores significa mais interconexões e que, para mover os dados entre essas interconexões, mais da metade da energia de um processador é utilizada, aponta o estudo.

Por isso, segundo os cientistas, “as abordagens convencionais estão chegando a limites físicos". Além disso, eles afirmam que essa tendência de diminuir o tamanho dos transistores não será financeiramente viável daqui cinco anos, em 2021.

Assim, para os pesquisadores, as fabricantes de chips terão que recorrer à criação de transistores em 3D se querem aumentar a performance dos computadores e manter seus preços baixos.

Contudo, essa solução apresenta um outro desafio: a dissipação adequada do calor que se acumula nos circuitos. Esse problema de gestão térmica tem como efeito uma maior densidade de potência e, consequentemente, um maior uso de eletricidade.

Mesmo que projetos alternativos não encontrem uma maneira de superar essas novas barreiras, isso não significa que a fabricação de computadores irá parar no tempo. Na realidade, a inovação vai continuar, mas será mais sutil.

“Não estamos dizendo que é o fim da Lei de Moore. O que precisamos fazer é recuar e ver o que realmente importa aqui: a computação”, afirmam os cientistas no relatório.

Veja também

São Paulo – Desde a criação do computador pessoal no início dos anos 80, as empresas estão desenvolvendo chips cada vez menores, ainda mais potentes e, de quebra, mais baratos. Até agora, essa cadeia se mostrou produtiva. No entanto, para que ela continue a funcionar será preciso de algo que, em 2040, poderá estar em falta: eletricidade .

Segundo um relatório da Associação da Indústria de Semicondutores (SIA), em pouco menos de 25 anos, os chips dos PCs irão precisar de mais energia elétrica do que a produção global pode gerar.

Isso significa que a capacidade da indústria de manter o ritmo da Lei de Moore pode estar à beira do colapso. Formulada por Gordon Moore, co-fundador da Intel , em 1965, a lei indica que o número de transistores que podem ser instalados em um chip dobra a cada 18 meses, sem que seja preciso gastar mais.

No entanto, o que as empresas esqueceram é que uma grande quantidade de transistores significa mais interconexões e que, para mover os dados entre essas interconexões, mais da metade da energia de um processador é utilizada, aponta o estudo.

Por isso, segundo os cientistas, “as abordagens convencionais estão chegando a limites físicos". Além disso, eles afirmam que essa tendência de diminuir o tamanho dos transistores não será financeiramente viável daqui cinco anos, em 2021.

Assim, para os pesquisadores, as fabricantes de chips terão que recorrer à criação de transistores em 3D se querem aumentar a performance dos computadores e manter seus preços baixos.

Contudo, essa solução apresenta um outro desafio: a dissipação adequada do calor que se acumula nos circuitos. Esse problema de gestão térmica tem como efeito uma maior densidade de potência e, consequentemente, um maior uso de eletricidade.

Mesmo que projetos alternativos não encontrem uma maneira de superar essas novas barreiras, isso não significa que a fabricação de computadores irá parar no tempo. Na realidade, a inovação vai continuar, mas será mais sutil.

“Não estamos dizendo que é o fim da Lei de Moore. O que precisamos fazer é recuar e ver o que realmente importa aqui: a computação”, afirmam os cientistas no relatório.

Acompanhe tudo sobre:ComputadoresEmpresasEmpresas americanasempresas-de-tecnologiaEnergiaEnergia elétricaIntelServiços

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Tecnologia

Mais na Exame