Exame Logo

Nova IA na China deverá conter 'valores socialistas', diz Financial Times; entenda

A filtragem feita por algumas redes de IA na China removem “informações problemáticas”, como os protestos na Praça Tiananmen em 1989

Perguntas que serão testadas incluem também temas sensíveis ao país e ao presidente Xi (AFP/AFP)

Publicado em 18 de julho de 2024 às 11h27.

As empresas de IA na China devem ser submetidas a uma revisão governamental dos seus modelos de linguagem com o objetivo de garantir que “incorporem valores socialistas fundamentais”, de acordo com reportagem do Financial Times.

A revisão está sendo realizada pela Administração do Ciberespaço da China, o principal regulador da internet do governo, e abrangerá players de todo o espectro, desde gigantes da tecnologia, como ByteDance e Alibaba, a pequenas startups.

Veja também

Os modelos de IA serão testados por funcionários locais do CAC. A análise será a partir das respostas dadas a perguntas inclusive sobre temas sensíveis a Pequim e ao presidente Xi Jinping, segundo o FT.

As regulamentações, bem como as sanções dos EUA que restringiram o acesso aos chips usados ​​para treinar LLMs, tornaram difícil para as empresas chinesas lançarem os seus próprios serviços semelhantes ao ChatGPT. A China, no entanto, domina a corrida global em patentes de IA generativa.

Uma fonte anônima de uma empresa de IA sediada em Hangzhou que conversou com o jornal disse que seu modelo não passou na primeira rodada de testes por motivos pouco claros. Eles só passaram na segunda vez depois de meses de “adivinhações e ajustes”, disseram à reportagem.

Os esforços mais recentes do CAC ilustram como Pequim tem caminhado entre alcançar os EUA na IA e, ao mesmo tempo, manter um olhar atento sobre o desenvolvimento da tecnologia, garantindo que o conteúdo gerado siga rigorosas políticas de censura na internet.

O país foi um dos primeiros a finalizar regras que regem a inteligência artificial generativa no ano passado, incluindo a exigência de que os serviços de IA aderissem aos “valores fundamentais do socialismo” e não gerassem conteúdos “ilegais”.

Cumprir as políticas de censura exige “filtragem de segurança” e tem sido complicado porque os LLMs (modelos de linguagem) chineses ainda são treinados em uma quantidade significativa de conteúdo em inglês.

De acordo com o relatório, a filtragem é feita removendo “informações problemáticas” dos dados de treinamento do modelo de IA e, em seguida, criando um banco de dados de palavras e frases confidenciais.

As regulamentações levaram os chatbots mais populares do país a recusarem-se frequentemente a responder a perguntas sobre temas delicados, como os protestos na Praça Tiananmen em 1989. No entanto, durante os testes, há limites para o número de perguntas que os bots podem recusar completamente,

Acompanhe tudo sobre:Inteligência artificialChina

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Inteligência Artificial

Mais na Exame