O governo chinês começou a analisar se as inteligências artificiais (IAs) generativas nacionais “abraçam os valores socialistas”. A entidade Administração de ciberespaço da China (CAC, na sigla em inglês) é responsável pela avaliação. Os detalhes foram noticiados pelo Financial Times (FT).
Os modelos generativos precisarão responder uma variedade de perguntas, incluindo algumas relacionadas a tópicos políticos sensíveis para o governo chinês. Segundo a reportagem, os dados utilizados para o treinamento dos modelos também serão analisados.
Dentro das empresas sujeitadas ao teste estão a ByteDance, gigante dona do TikTok, e o Alibaba.
Os modelos generativos desenvolvidos na China precisam abraçar os principais valores do socialismo do país. (Imagem: Getty Images)Fonte: GettyImages
A fonte ouvida pelo FT trabalha para uma das empresas sob análise do CAC. Ele afirma que o modelo da companhia não passou nos testes por razões não esclarecidas, mas foi aprovado na segunda avaliação após ajustes na IA.
A China foi um dos primeiros países a determinar leis para regulamentar inteligência artificial generativa. Entre as normas que devem ser seguidas, os modelos precisam abraçar os valores mais importantes do socialismo e não criar conteúdo ilegal.
Censura complexa
Contudo, ajustar modelos generativos para atender as demandas do governo é complicado, afirmam engenheiros ouvidos pelo FT. Para isso, eles precisam remover “informações problemáticas” e criar uma base de dados de palavras e frases proibidas no país — então, torcer para que a máquina não alucine com algo censurado.
Um dos assuntos proibidos para os chatbots chineses é o Massacre da Praça da Paz Celestial de 1989 em Tiananmen.
Porém, os modelos não podem só negar respostas. O CAC requer que a inteligência artificial gere “respostas politicamente corretas” para assuntos sensíveis.
Para atender essa demanda, as empresas chinesas envolvidas com IA geralmente implementam uma camada acima do modelo base capaz de detectar tópicos sensíveis e gerar respostas aceitáveis para as autoridades.