Inteligência Artificial

Pela humanidade: saiba qual promessa os CEOs da Meta, Google e OpenAI precisaram fazer à Casa Branca

Governo dos EUA fecha acordo com gigantes da tecnologia para garantir segurança no uso da inteligência artificial

Sam Altman: CEO da OpenAI (WinMcNamee/Getty Images)

Sam Altman: CEO da OpenAI (WinMcNamee/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 21 de julho de 2023 às 12h20.

Última atualização em 21 de julho de 2023 às 12h23.

Nesta sexta-feira, 21, a Casa Branca reuniu sete empresas líderes em inteligência artificial (IA) para firmar compromissos voluntários voltados à proteção de seus usuários. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI concordaram com uma série de solicitações do governo norte-americano para mitigar riscos associados à tecnologia de IA.

Ficou acordado que as empresas devem se empenhar em investimentos em segurança cibernética, pesquisas sobre algoritmos discriminatório, além de um novo sistema de marca d'água que informará os usuários quando o conteúdo for gerado por IA. Como as empresas aderiram voluntariamente a esses compromissos, atualmente não há consequências estabelecidas para o não cumprimento das promessas.

Embora nada disso entre em vigor imediatamente nesta sexta-feira, as empresas estão comprometidas a começar a implementá-los sem demora. Em ligação com jornalistas na quinta-feira, 20, um funcionário da Casa Branca informou que a administração Biden está trabalhando em uma ordem executiva para lidar com alguns dos riscos apresentados pela IA, embora não tenha divulgado especificidades.

EUA se movimenta pela regulação da IA

Nos últimos meses, a administração Biden esteve em reuniões com executivos de tecnologia, líderes trabalhistas e de direitos civis para discutir a IA.

Em maio, a Casa Branca anunciou mais recursos e orientações para empresas que desenvolvem tecnologia de IA, incluindo US$ 140 milhões para a National Science Foundation lançar sete novos Institutos Nacionais de Pesquisa em IA. Google, Microsoft, Nvidia, OpenAI e outras empresas também concordaram em permitir que seus modelos de linguagem sejam avaliados publicamente no Def Con deste ano.

O anúncio de sexta-feira chega quase um mês após o líder da maioria no Senado, o democrata Chuck Schumer, lançar seu plano para o Congresso regular a tecnologia sem prejudicar a inovação. O plano SAFE (Security, Accountability, Foundations, Explain) não oferece pedidos de política específicos, mas convoca os legisladores a trabalharem juntos para criar regras que lidem com o potencial prejudicial da IA.

A iniciativa de Schumer também contempla uma série de briefings para senadores sobre a tecnologia. Na próxima semana, ele sediará o terceiro briefing. Os dois primeiros encontros explicaram a tecnologia e apresentaram seus riscos para a segurança nacional.

Desde o anúncio de Schumer, legisladores de ambos os lados apresentaram legislação para regular a tecnologia. Algumas novas regras que limitam o uso de IA gerativa pelo Departamento de Defesa foram incorporadas ao National Defense Authorization Act deste ano. A votação para a aprovação da medida é esperada na próxima semana.

Acompanhe tudo sobre:Inteligência artificial

Mais de Inteligência Artificial

Loft apresenta simulador com IA no WhatsApp que encurta prazo de financiamento de 60 para 30 dias

OpenAI lança GPT-4o Mini, um modelo mais leve e acessível para desenvolvedores

O Brasil entre a inovação e a colonização digital

Nova IA na China deverá conter 'valores socialistas', diz Financial Times; entenda

Mais na Exame