Inteligência Artificial

Nova lei na Califórnia quer "botão de desligar" da IA e gera oposição das empresas de tecnologia

Gigantes da inteligência artificial na Califórnia estão se manifestando contra um projeto de lei estadual que obrigaria empresas de tecnologia a seguir um rígido quadro de segurança

André Lopes
André Lopes

Repórter

Publicado em 9 de junho de 2024 às 09h11.

Última atualização em 20 de junho de 2024 às 13h56.

As principais empresas de inteligência artificial da Califórnia estão protestando contra um projeto de lei estadual que obrigaria as companhias de tecnologia a aderirem a um rigoroso quadro de segurança, incluindo a criação de um "botão de desligar" para desativar seus poderosos modelos de IA.

A legislação californiana está considerando propostas que introduziriam novas restrições às empresas de tecnologia operando no estado, incluindo as três maiores startups de IA, OpenAI, Anthropic e Cohere, além de grandes modelos de linguagem gerenciados por empresas como Meta. O projeto de lei, aprovado pelo Senado estadual no mês passado e previsto para votação na Assembleia Geral em agosto, exige que os grupos de IA na Califórnia garantam a um novo órgão estadual que não desenvolverão modelos com "capacidade perigosa", como a criação de armas biológicas ou nucleares ou a facilitação de ataques cibernéticos.

Os desenvolvedores seriam obrigados a relatar seus testes de segurança e a introduzir um "botão de desligar" para desativar seus modelos, conforme proposto no Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act.

Entretanto, a lei tem gerado uma reação adversa em grande parte do Vale do Silício, com alegações de que forçará as startups de IA a deixarem o estado e impedirá plataformas como a Meta de operar modelos de código aberto. Andrew Ng, renomado cientista da computação, afirmou: "Se alguém quisesse criar regulamentos para sufocar a inovação, dificilmente faria melhor."

O crescimento rápido e o grande potencial da IA têm gerado preocupações sobre a segurança da tecnologia, com Elon Musk, um dos primeiros investidores na OpenAI, chamando-a de "ameaça existencial" para a humanidade no ano passado. Nesta semana, um grupo de funcionários atuais e ex-funcionários da OpenAI publicou uma carta aberta alertando que as "empresas de IA de fronteira" não têm supervisão governamental suficiente e representam "riscos sérios" para a humanidade.

O projeto de lei da Califórnia foi co-patrocinado pelo Center for AI Safety (CAIS), uma organização sem fins lucrativos baseada em São Francisco e liderada pelo cientista da computação Dan Hendrycks, que é conselheiro de segurança da startup de IA de Musk, xAI. Hendrycks disse que o projeto é "realista e razoável", com a maioria das pessoas desejando "alguma supervisão básica".

O governo dos Estados Unidos também tomou medidas para regular a IA, com o presidente Joe Biden introduzindo uma ordem executiva em outubro que visa estabelecer novos padrões de segurança e segurança nacional para a IA, proteger os cidadãos contra riscos de privacidade da IA e combater a discriminação algorítmica. O governo do Reino Unido delineou planos em abril para elaborar nova legislação para regulamentar a IA.

As críticas ao projeto de lei californiano focam no ritmo em que ele foi apresentado e aprovado no Senado, conduzido pelo CAIS, que recebeu financiamento significativo da Open Philanthropy, uma instituição de caridade com raízes no movimento do altruísmo eficaz, uma filosofia adotada por bilionários do Vale do Silício que enchegam na IA uma solução para os problemas da humanidade.

Conheça os principais laboratórios de inteligência artificial do mundo

Acompanhe tudo sobre:Inteligência artificialCalifórnia

Mais de Inteligência Artificial

Amado pelos designers, CEO do Figma acredita que futuro dos produtos digitais passa pela IA

Google DeepMind é um sucesso e uma tragédia ao mesmo tempo, diz executiva da empresa

Musk acusa OpenAI de tentar 'monopolizar' mercado de IA

CEO da Nvidia teve chance de comprar empresa no passado — mas recusou