Nova IA na China deverá conter 'valores socialistas', diz Financial Times; entenda
A filtragem feita por algumas redes de IA na China removem “informações problemáticas”, como os protestos na Praça Tiananmen em 1989
Repórter colaborador
Publicado em 18 de julho de 2024 às 11h27.
As empresas de IA na China devem ser submetidas a uma revisão governamental dos seus modelos de linguagem com o objetivo de garantir que “incorporem valores socialistas fundamentais”, de acordo com reportagem do Financial Times.
A revisão está sendo realizada pela Administração do Ciberespaço da China, o principal regulador da internet do governo, e abrangerá players de todo o espectro, desde gigantes da tecnologia, como ByteDance e Alibaba, a pequenas startups.
Os modelos de IA serão testados por funcionários locais do CAC. A análise será a partir das respostas dadas a perguntas inclusive sobre temas sensíveis a Pequim e ao presidente Xi Jinping, segundo o FT.
As regulamentações, bem como as sanções dos EUA que restringiram o acesso aos chips usados para treinar LLMs, tornaram difícil para as empresas chinesas lançarem os seus próprios serviços semelhantes ao ChatGPT. A China, no entanto, domina a corrida global em patentes de IA generativa.
Uma fonte anônima de uma empresa de IA sediada em Hangzhou que conversou com o jornal disse que seu modelo não passou na primeira rodada de testes por motivos pouco claros. Eles só passaram na segunda vez depois de meses de “adivinhações e ajustes”, disseram à reportagem.
Os esforços mais recentes do CAC ilustram como Pequim tem caminhado entre alcançar os EUA na IA e, ao mesmo tempo, manter um olhar atento sobre o desenvolvimento da tecnologia, garantindo que o conteúdo gerado siga rigorosas políticas de censura na internet.
O país foi um dos primeiros a finalizar regras que regem a inteligência artificial generativa no ano passado, incluindo a exigência de que os serviços de IA aderissem aos “valores fundamentais do socialismo” e não gerassem conteúdos “ilegais”.
Cumprir as políticas de censura exige “filtragem de segurança” e tem sido complicado porque os LLMs (modelos de linguagem) chineses ainda são treinados em uma quantidade significativa de conteúdo em inglês.
De acordo com o relatório, a filtragem é feita removendo “informações problemáticas” dos dados de treinamento do modelo de IA e, em seguida, criando um banco de dados de palavras e frases confidenciais.
As regulamentações levaram os chatbots mais populares do país a recusarem-se frequentemente a responder a perguntas sobre temas delicados, como os protestos na Praça Tiananmen em 1989. No entanto, durante os testes, há limites para o número de perguntas que os bots podem recusar completamente,