Inteligência Artificial

EUA, China, União Europeia e outros países assinam 1ª declaração mundial sobre riscos da IA

Em documento, no qual o Brasil é um dos signatários, destaca-se a urgência de mais segurança sobre o uso desta tecnologia

Inteligência Artificial: OpenAI, Meta e outras companhias de tecnologia tornaram públicas suas regras de segurança de IA (Nikolas Kokovlis/NurPhoto/Getty Images)

Inteligência Artificial: OpenAI, Meta e outras companhias de tecnologia tornaram públicas suas regras de segurança de IA (Nikolas Kokovlis/NurPhoto/Getty Images)

Agência o Globo
Agência o Globo

Agência de notícias

Publicado em 1 de novembro de 2023 às 15h02.

Estados Unidos, China, União Europeia e cerca de outros 20 países assinaram nesta quarta-feira, no Reino Unido, a Declaração de Bletchley para um desenvolvimento "seguro" da Inteligência Artificial (IA), na primeira cúpula internacional sobre o auge desta tecnologia.

No documento, que inclui Brasil e Chile entre seus signatários, destaca-se "a necessidade urgente de compreender e administrar coletivamente os riscos potenciais" da IA.

"Esta declaração histórica marca o começo de um novo esforço mundial para aumentar a confiança do público na IA, garantindo que seja segura", disse o primeiro-ministro britânico, Rishi Sunak, no X (antigo Twitter).

Ante o crescente potencial de modelos como ChatGPT, a Declaração de Bletchley "mostra que, pela primeira vez, o mundo se reúne para identificar o problema e destacar suas oportunidades", destacou à AFP a ministra britânica de Tecnologia, Michelle Donelan. A reunião "não tem como objetivo lançar as bases de uma legislação mundial, mas deve servir para traçar um caminho a seguir", detalhou.

Duas cúpulas internacionais sobre a IA ocorrerão posteriormente: uma, na Coreia do Sul, dentro de seis meses; e outra, na França, dentro de um ano, afirmou a ministra no emblemático centro onde foram decifrados os códigos secretos nazistas na Segunda Guerra Mundial.

Paralelamente ao encontro, a vice-presidente americana, Kamala Harris, deve anunciar em um discurso em Londres a criação de um instituto sobre a segurança da Inteligência Artificial em Washington. Esta estrutura - similar à anunciada pelo Reino Unido - reunirá especialistas para estabelecer "diretrizes" e analisar os modelos de IA mais avançados para "identificar e mitigar" os riscos, segundo a Casa Branca.

Os modelos de IA generativa - capazes de produzir textos, sons, ou imagens, em apenas alguns segundos - fizeram avanços gigantescos nos últimos anos. E as próximas gerações desses modelos serão lançadas no verão.

A tecnologia suscita grandes esperanças na medicina e na educação, mas também pode desestabilizar sociedades, permitindo fabricar armas, ou escapando ao controle humano, advertiu o governo britânico.

"A portas fechadas"

Depois deste primeiro dia dedicado aos perigos potenciais de uma IA mais avançada, são esperados representantes políticos de alto nível na quinta-feira no Bletchley Park. Entre eles, a presidente da Comissão Europeia, Ursula von der Leyen, o secretário-geral da ONU, António Guterres, e a chefe do Governo italiano, Georgia Meloni.

O bilionário americano Elon Musk, presente na cúpula nesta quarta-feira, conversará com o primeiro-ministro britânico, Rishi Sunak, na noite de quinta-feira.

"Nosso objetivo é estabelecer um marco para uma melhor compreensão (...) e para que haja ao menos um árbitro independente que possa observar o que as empresas de IA estão fazendo e dê sinal de alarme se algo lhe preocupar", disse Musk à imprensa. "Minha esperança para esta cúpula é que haja um consenso internacional sobre a compreensão inicial da IA avançada", afirmou.

Em uma carta aberta publicada na terça-feira, vários dos "pais fundadores" dessa tecnologia, como Yoshua Bengio e Geoffrey Hinton, pediram "a elaboração e a ratificação de um tratado internacional sobre IA", para reduzir os "riscos potencialmente catastróficos que os sistemas avançados representam para a humanidade".

O principal desafio é definir salvaguardas sem impor obstáculos à inovação nos laboratórios de IA e nos gigantes tecnológicos. União Europeia (UE) e Estados Unidos, ao contrário do Reino Unido, escolheram a regulamentação.

Várias empresas, como OpenAI, Meta (Facebook) e DeepMind (Google), concordaram na semana passada em tornar públicas algumas das suas regras de segurança de IA, depois da solicitação do Reino Unido. Em uma carta aberta dirigida ao premiê britânico, quase 100 organizações, especialistas e ativistas internacionais lamentaram que essa reunião aconteça "a portas fechadas", dominada por gigantes da tecnologia e com acesso limitado à sociedade civil.

Acompanhe tudo sobre:ChatGPTInteligência artificialMetaFacebookGoogle

Mais de Inteligência Artificial

Ele foi estagiário de Steve Jobs nos anos 1980 — e se tornou CEO de empresa de IA

Reddit anuncia parceria de conteúdo com a OpenAI e ações sobem 15%

Ilya Sutskever, cofundador da OpenAI (ChatGPT), anuncia saída da empresa

Google anuncia ferramentas de criação para vídeos, imagens e música

Mais na Exame