Perguntas que serão testadas incluem também temas sensíveis ao país e ao presidente Xi (AFP/AFP)
Repórter colaborador
Publicado em 18 de julho de 2024 às 11h27.
As empresas de IA na China devem ser submetidas a uma revisão governamental dos seus modelos de linguagem com o objetivo de garantir que “incorporem valores socialistas fundamentais”, de acordo com reportagem do Financial Times.
A revisão está sendo realizada pela Administração do Ciberespaço da China, o principal regulador da internet do governo, e abrangerá players de todo o espectro, desde gigantes da tecnologia, como ByteDance e Alibaba, a pequenas startups.
Os modelos de IA serão testados por funcionários locais do CAC. A análise será a partir das respostas dadas a perguntas inclusive sobre temas sensíveis a Pequim e ao presidente Xi Jinping, segundo o FT.
As regulamentações, bem como as sanções dos EUA que restringiram o acesso aos chips usados para treinar LLMs, tornaram difícil para as empresas chinesas lançarem os seus próprios serviços semelhantes ao ChatGPT. A China, no entanto, domina a corrida global em patentes de IA generativa.
Uma fonte anônima de uma empresa de IA sediada em Hangzhou que conversou com o jornal disse que seu modelo não passou na primeira rodada de testes por motivos pouco claros. Eles só passaram na segunda vez depois de meses de “adivinhações e ajustes”, disseram à reportagem.
Os esforços mais recentes do CAC ilustram como Pequim tem caminhado entre alcançar os EUA na IA e, ao mesmo tempo, manter um olhar atento sobre o desenvolvimento da tecnologia, garantindo que o conteúdo gerado siga rigorosas políticas de censura na internet.
O país foi um dos primeiros a finalizar regras que regem a inteligência artificial generativa no ano passado, incluindo a exigência de que os serviços de IA aderissem aos “valores fundamentais do socialismo” e não gerassem conteúdos “ilegais”.
Cumprir as políticas de censura exige “filtragem de segurança” e tem sido complicado porque os LLMs (modelos de linguagem) chineses ainda são treinados em uma quantidade significativa de conteúdo em inglês.
De acordo com o relatório, a filtragem é feita removendo “informações problemáticas” dos dados de treinamento do modelo de IA e, em seguida, criando um banco de dados de palavras e frases confidenciais.
As regulamentações levaram os chatbots mais populares do país a recusarem-se frequentemente a responder a perguntas sobre temas delicados, como os protestos na Praça Tiananmen em 1989. No entanto, durante os testes, há limites para o número de perguntas que os bots podem recusar completamente,