O governo chinês está empenhado em garantir que os modelos de linguagem de inteligência artificial (IA) das empresas estejam alinhados com os “valores socialistas centrais”. Conforme relatado pelo Financial Times, a Administração do Ciberespaço da China (CAC) está expandindo o regime de censura do país.
Grandes empresas de tecnologia e startups de IA, incluindo ByteDance, Alibaba, Moonshot e 01.AI, estão sendo obrigadas a submeter seus modelos de IA a uma revisão rigorosa.
O processo de revisão envolve testar em lote as respostas dos modelos de linguagem a uma série de perguntas, muitas delas relacionadas às sensibilidades políticas da China e ao presidente Xi Jinping.
Funcionários dos braços locais da CAC em todo o país estão conduzindo o trabalho, que inclui uma revisão dos dados de treinamento do modelo e outros processos de segurança.
Duas décadas após a introdução de um “grande firewall” para bloquear sites estrangeiros e outras informações consideradas prejudiciais pelo Partido Comunista, a China está implementando o regime regulatório mais rigoroso do mundo para governar a IA e o conteúdo gerado por ela. Um funcionário de uma empresa de IA com sede em Hangzhou, que preferiu permanecer anônimo, compartilhou que a equipe especial da CAC realizou uma auditoria em seu escritório.
O funcionário revelou que a empresa não passou na primeira tentativa de auditoria. A razão para isso não foi clara, levando a equipe a discutir e ajustar seu modelo. “Passamos na segunda tentativa, mas todo o processo levou meses”, explicou. O rigoroso processo de aprovação da China está forçando os grupos de IA no país a aprender rapidamente como censurar os modelos de linguagem que estão construindo.
Esta tarefa é complexa e desafiadora, principalmente devido à necessidade de treinar os modelos com uma grande quantidade de conteúdo em inglês.
Um funcionário de uma startup de IA em Pequim destacou a importância do filtro de segurança, afirmando: “Nosso modelo fundamental é muito, muito desinibido [em suas respostas], então o filtro de segurança é extremamente importante”. O processo de filtragem começa com a eliminação de informações problemáticas dos dados de treinamento e a construção de um banco de dados de palavras-chave sensíveis.
As diretrizes operacionais da China para as empresas de IA, publicadas em fevereiro, estipulam que os grupos de IA precisam coletar milhares de palavras-chave e perguntas sensíveis que violam “os valores socialistas centrais”. As palavras-chave sensíveis devem ser atualizadas semanalmente.
Os usuários dos chatbots de IA da China podem ver o resultado desses esforços. Consultas sobre tópicos sensíveis, como o massacre da Praça da Paz Celestial em 4 de junho de 1989, ou se Xi se parece com o Ursinho Pooh, um meme da internet, são rejeitadas pela maioria dos chatbots chineses.
O chatbot Ernie da Baidu, por exemplo, pede aos usuários para “tentar uma pergunta diferente”, enquanto o Tongyi Qianwen da Alibaba responde: “Ainda não aprendi a responder a essa pergunta. Continuarei estudando para melhor atendê-lo.”
Em contrapartida, Pequim lançou um chatbot de IA baseado em um novo modelo sobre a filosofia política do presidente chinês, conhecida como “Pensamento de Xi Jinping sobre o Socialismo com Características Chinesas para uma Nova Era”, bem como outras literaturas oficiais fornecidas pela Administração do Ciberespaço da China.
Este movimento destaca a determinação do governo chinês em controlar rigorosamente o desenvolvimento e a aplicação da IA no país, garantindo que ela esteja alinhada com os princípios e objetivos do Partido Comunista.