Inteligência Artificial

Pesquisadores afirmam que gigantes da IA impedem avaliações independentes de seus algoritmos

Uma coalizão de mais de 100 pesquisadores apela por transparência das gigantes de tecnologia para permitir auditorias independentes em sistemas de IA generativa

Inteligência artificial: carta, enviada a empresas como OpenAI, Meta, Anthropic, Google e Midjourney (Photo by KIRILL KUDRYAVTSEV/AFP via Getty Images)

Inteligência artificial: carta, enviada a empresas como OpenAI, Meta, Anthropic, Google e Midjourney (Photo by KIRILL KUDRYAVTSEV/AFP via Getty Images)

Publicado em 6 de março de 2024 às 09h29.

Mais de 100 pesquisadores de inteligência artificial assinaram uma carta aberta pedindo às empresas de inteligência artificial generativa que permitam aos cientistas acesso aos seus sistemas. Eles argumentam que as regras opacas das empresas estão impedindo-os de testar a segurança das ferramentas usadas por milhões de consumidores.

Os pesquisadores afirmam que protocolos rígidos projetados para impedir abusos dos sistemas de IA estão tendo um efeito inibidor na pesquisa independente. Tais auditores temem ter suas contas banidas ou serem processados se tentarem testar a segurança dos modelos de IA sem a permissão de uma empresa.

A carta foi assinada por especialistas em pesquisa de IA, política e direito, incluindo Percy Liang da Universidade Stanford; a jornalista vencedora do Prêmio Pulitzer Julia Angwin; Renée DiResta do Observatório da Internet de Stanford; a bolsista da Mozilla Deb Raji, pioneira na pesquisa de auditoria de modelos de IA e o professor da Universidade Brown Suresh Venkatasubramanian, ex-conselheiro do Escritório de Política de Ciência e Tecnologia da Casa Branca.

A carta, enviada a empresas como OpenAI, Meta, Anthropic, Google e Midjourney, pede às empresas de tecnologia que forneçam um porto seguro legal e técnico para que os pesquisadores possam testar seus produtos.

Leia também: Definitivamente erramos, diz cofundador do Google sobre problemas no Gemini

"As empresas de IA generativa devem evitar repetir os erros das plataformas de mídia social, muitas das quais efetivamente proibiram tipos de pesquisa destinados a responsabilizá-las", diz a carta.

O esforço chega enquanto as empresas de IA estão se tornando agressivas em impedir que auditores externos acessem seus sistemas. A OpenAI alegou em documentos judiciais recentes que os esforços do New York Times para encontrar possíveis violações de direitos autorais eram "hacking" seu chatbot ChatGPT. 

Os novos termos do Meta afirmam que revogarão a licença para LLaMA 2, seu mais recente grande modelo de linguagem, se um usuário alegar que o sistema viola os direitos de propriedade intelectual. 

O artista Reid Southen, outro signatário da carta, teve várias contas banidas enquanto testava se o gerador de imagens Midjourney poderia ser usado para criar imagens protegidas por direitos autorais de personagens de filmes. Depois que ele divulgou suas descobertas, a empresa alterou a linguagem ameaçadora em seus termos de serviço.

"Se você infringir conscientemente a propriedade intelectual de outra pessoa, e isso nos custar dinheiro, vamos atrás de você e coletaremos esse dinheiro de você", dizem os termos. "Talvez também façamos outras coisas, como tentar fazer com que um tribunal faça você pagar nossas taxas legais. Não faça isso."

As políticas das empresas de IA geralmente proíbem os consumidores de usar um serviço para gerar conteúdo enganoso, cometer fraude, violar direitos autorais, influenciar eleições ou assediar outras pessoas. Os usuários que violam os termos podem ter suas contas suspensas ou banidas sem chance de apelação.

Mas para realizar investigações independentes, os pesquisadores muitas vezes quebram estas regras intencionalmente. Como os testes ocorrem em seu próprio login, alguns temem que as empresas de IA, que ainda estão desenvolvendo métodos para monitorar possíveis infratores das regras, possam punir desproporcionalmente os usuários que trazem atenção negativa para seus negócios.

Embora empresas como a OpenAI ofereçam programas especiais para dar aos pesquisadores acesso, a carta argumenta que essa configuração fomenta o favoritismo, com as empresas selecionando a dedo seus avaliadores.

A pesquisa externa descobriu vulnerabilidades em modelos amplamente utilizados como o GPT-4, como a capacidade de quebrar proteções traduzindo entradas em inglês para idiomas menos usados, como o Hmong.

Acompanhe tudo sobre:Inteligência artificial

Mais de Inteligência Artificial

Musk retira processo contra OpenAI um dia após criticar acordo com Apple

O que o acordo OpenAI-Apple significa para Google e Microsoft

Mistral AI levanta US$ 645 milhões e atinge valor de US$ 6,5 bilhões

Senado defende aprovação de projeto de lei sobre inteligência artificial no Brasil

Mais na Exame