Exame logo 55 anos
Remy Sharp
Acompanhe:

O bilionário Elon Musk e mais de 2.600 líderes e pesquisadores do setor de tecnologia se uniram para assinar uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial, temendo o que eles acreditam ser “riscos profundos para a sociedade e a humanidade" ligados à tecnologia.

Além do dono da Tesla e o Twitter, o cofundador da Apple, Steve Wozniak, e uma série de CEOs e pesquisadores estão entre os signatários da carta. O documento foi publicado em 22 de março pela Future of Life Institute (FOLI, na sigla em inglês), uma instituição de pesquisa sediada nos Estados Unidos.

O instituto convocou todas as empresas de inteligência artificial a “pausar imediatamente” o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses, sob o argumento de que “a competição de inteligência com os humanos pode representar riscos profundos para a sociedade e a humanidade”.

“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está sendo adotado”, defendeu o instituto.

Lançado em 14 de março, o GPT-4 é a mais recente versão do chat baseado em inteligência artificial da OpenAI. Até o momento, ele passou em alguns dos mais rigorosos exames de ensino médio e direito dos Estados Unidos, com pontuações que o colocam entre os melhores classificados. Segundo a empresa, a nova versão é dez vezes mais avançada que a versão original do ChatGPT.

Para a FOLI, há uma “corrida fora de controle” entre as empresas de inteligência artificial para desenvolver a IA "mais poderosa", cujo resultado “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. A carta alega que as máquinas poderiam potencialmente inundar os canais de informação com “propaganda e falsidade” e também levanta a possibilidade de que as máquinas “automatizem” todas as oportunidades de emprego.

A instituição levou essas preocupações um passo adiante, sugerindo que o desenvolvimento dos produtos dessas empresas podem levar a humanidade a uma ameaça existencial: “Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertas, tornando as nossas mentes obsoletas e nos substituir? Devemos arriscar perder o controle sobre a nossa civilização?”.

“Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos” pelo público, acrescentou a carta. O instituto também concordou com uma declaração recente do fundador da OpenAI, Sam Altman, de que uma revisão independente é necessária antes do treinamento de futuros sistemas de inteligência artificial.

Em uma publicação em 24 de fevereiro no blog oficial da OpenAI, Altman destacou a necessidade de se preparar para robôs de inteligência artificial geral (AGI, na sigla em inglês) e para a superinteligência artificial (ASI, na sigla em inglês).

Divergências sobre inteligência artificial

Mas nem todos os especialistas em inteligência artificial se juntaram à petição. Ben Goertzel, CEO da SingularityNET, explicou que os modelos de aprendizado de linguagem (LLMs, na sigla em inglês) que são usados atualmente em projetos como o ChatGPT não se tornarão AGIs. Até o momento, argumentou ele, tem havido poucos desenvolvimentos nesse sentido. Ele defendeu que a pesquisa e o desenvolvimento de armas biológicas e nucleares é que devem ser desaceleradas.

Além de modelos de aprendizado de linguagem como o ChatGPT, a tecnologia deep fake alimentada por IA foi usada para criar imagens, áudios e vídeos falsos bastante convincentes. A tecnologia também tem sido usada para criar obras de arte, gerando preocupações acerca de possíveis violações das leis de direitos autorais em certos casos.

O CEO da Galaxy Digital, Mike Novogratz, disse recentemente aos investidores que ficou chocado com a quantidade de atenção que os reguladores dos Estados Unidos têm dado às criptomoedas, enquanto pouca atenção é destinada à inteligência artificial.

“Quando penso em IA, fico chocado ao notar que estamos falando tanto sobre regulamentação de criptomoedas e nada sobre regulamentação de IA. Quero dizer, acho que o governo está completamente equivocado”, opinou ele durante uma teleconferência com acionistas em 28 de março.

Nesse sentido, a FOLI argumentou que, caso a pausa no desenvolvimento da IA não seja decretada rapidamente, os governos devem intervir: “Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória".

Esse anúncio da Mynt não foi escrito por uma Inteligência Artificial. Mas somos tecnológicos. Nossa segurança é de ponta e nossa curadoria, de excelência. O que falta para você investir em crypto com a Mynt?

Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube | Telegram | TikTok

Créditos

Últimas Notícias

ver mais
Nvidia usa inteligência artificial em conversas com personagens de jogos
Future of Money

Nvidia usa inteligência artificial em conversas com personagens de jogos

Há 11 horas
"É hora do bitcoin subir", diz maior trader de criptomoedas do mundo
Future of Money

"É hora do bitcoin subir", diz maior trader de criptomoedas do mundo

Há 12 horas
Brian May, do Queen, registra patentes para NFTs e produtos no metaverso
Future of Money

Brian May, do Queen, registra patentes para NFTs e produtos no metaverso

Há 13 horas
Lastreada em petróleo, criptomoeda do governo venezuelano para de funcionar e gera preocupação
Future of Money

Lastreada em petróleo, criptomoeda do governo venezuelano para de funcionar e gera preocupação

Há 14 horas
icon

Branded contents

ver mais

Conteúdos de marca produzidos pelo time de EXAME Solutions

Exame.com

Acompanhe as últimas notícias e atualizações, aqui na Exame.

leia mais