Exame Logo

Biden se movimenta para buscar regulamentação da IA

Ao assinar uma nova ordem executiva, o presidente Biden aborda equidade e impactos no mercado de trabalho, sinalizando um passo significativo na regulamentação da inteligência artificial

Joe Biden: presidente dos Estados Unidos (Anna Moneymaker/Getty Images)
André Lopes

Repórter

Publicado em 30 de outubro de 2023 às 11h48.

Última atualização em 30 de outubro de 2023 às 11h52.

Em uma medida pioneira nos Estados Unidos, o presidente Joe Biden assinou uma nova ordem executiva relacionada à inteligência artificial, estabelecendo uma série de requisitos e diretrizes. Esta ação governamental, a primeira do tipo no país, envolve avaliações de segurança, orientações sobre equidade e direitos civis, além de pesquisas sobre o impacto da IA no mercado de trabalho.

Embora as agências de aplicação da lei tenham indicado a prontidão para aplicar a legislação existente contra abusos da IA, e o Congresso americano tenha se esforçado para compreender melhor a tecnologia a fim de elaborar novas leis, a ordem executiva pode ter um impacto mais imediato, funcionando quase como uma lei antecipatória à regulação.

Veja também

A Casa Branca dividiu os componentes-chave da ordem executiva em oito partes principais, que incluem:

Bruce Reed, vice-chefe de gabinete da Casa Branca, declarou publicamente que a ordem representa "o conjunto mais robusto de ações que qualquer governo no mundo já tomou em relação à segurança, segurança e confiabilidade da IA".

Esta ação se baseia em compromissos voluntários previamente assegurados pela Casa Branca com empresas líderes de IA e representa a primeira grande ação governamental vinculativa sobre a tecnologia. A ordem executiva também precede um encontro sobre segurança em IA organizado pelo Reino Unido.

O alto funcionário da administração mencionou que 15 grandes empresas de tecnologia americanas concordaram em implementar compromissos voluntários de segurança em IA, mas enfatizou que isso "não é suficiente" e que a ordem executiva de segunda-feira é um passo em direção à regulamentação concreta para o desenvolvimento da tecnologia.

O Presidente Biden exige que grandes empresas compartilhem resultados de testes de segurança com o governo dos EUA antes do lançamento oficial de sistemas de IA. A ordem também prioriza o desenvolvimento de padrões para testes realizados pelo pelo Instituto Nacional de Padrões e Tecnologia, que envolve testar as defesas e problemas potenciais dentro dos sistemas. O Departamento de Comércio desenvolverá padrões para marcar conteúdo gerado por IA.

A ordem também aborda dados de treinamento para grandes sistemas de IA e destaca a necessidade de avaliar como as agências coletam e usam dados disponíveis comercialmente, especialmente quando esses dados envolvem identificadores pessoais.

A administração Biden também está tomando medidas para fortalecer a força de trabalho em IA. A partir de segunda-feira, trabalhadores com experiência em IA podem encontrar vagas relevantes no governo federal no site AI.gov.

O funcionário da administração disse no domingo que o tempo mais "agressivo" para alguns aspectos de segurança e proteção da ordem envolve um prazo de 90 dias, e para outros aspectos, esse prazo pode ser de até um ano.

Ditando o ritmo da IA

Essa ordem executiva surge após uma série de ações da Casa Branca em meses recentes para criar espaços de discussão sobre o ritmo do desenvolvimento da IA, bem como diretrizes propostas.

Desde o lançamento viral do ChatGPT em novembro de 2022, que se tornou a aplicação de consumo de crescimento mais rápido na história, de acordo com um estudo da UBS, a adoção generalizada da IA gerativa já levou a preocupações públicas, batalhas legais e questões de legisladores.

Por exemplo, dias depois de a Microsoft integrar o ChatGPT ao seu mecanismo de busca Bing, foi criticada por discursos tóxicos, e geradores populares de imagens de IA foram alvo de críticas por viés racial e por propagarem estereótipos.

Em agosto, a Casa Branca desafiou milhares de hackers e pesquisadores de segurança a superar os principais modelos de IA gerativa de líderes do campo, incluindo OpenAI, Google, Microsoft, Meta e Nvidia. A competição foi parte da Def Con, a maior conferência de hackers do mundo.

A competição seguiu uma reunião em julho entre a Casa Branca e sete das principais empresas de IA, incluindo Alphabet, Microsoft, OpenAI, Amazon, Anthropic, Inflection e Meta. Cada uma das empresas saiu da reunião tendo concordado com um conjunto de compromissos voluntários no desenvolvimento de IA.

Acompanhe tudo sobre:Inteligência artificialGoverno BidenJoe Biden

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Inteligência Artificial

Mais na Exame