Líder em IA generativa no mundo com 38 mil pedidos de patentes registrados, a China está muito à frente dos Estados Unidos em desenvolvimento da tecnologia, país que ocupa o segundo lugar em um ranking da ONU com 6,2 mil patentes registradas.
A ONU levou em consideração o esforço dessas duas nações em fomentar e ampliar a oferta da tecnologia de 2014 a 2023. Uma reportagem especial do Financial Times, mostra, no entanto, que os esforços chineses na tecnologia vão muito além das questões financeiras ou econômicas, também incluem ideologia.
O texto mostra que funcionários do governo chinês testam os modelos de linguagem das empresas de inteligência artificial para garantir que seus sistemas “incorporem os valores socialistas centrais”. Isso é feito, segundo o FT, por órgãos como a Administração do Ciberespaço da China (Cyberspace Administration of China, CAC).
Empresas como ByteDance (dona do TikTok), Alibaba, Moonshot e 01.AI estão na lista de fiscalização. Ainda de acordo com a reportagem, o esforço envolve testar as respostas de um grande modelo de linguagem (LLM) a uma série de perguntas, “de acordo com aqueles que têm conhecimento do processo, muitas delas relacionadas a sensibilidades políticas da China e ao seu presidente Xi Jinping”, aponta o texto.
Leia também
“Não tivemos nosso modelo aprovado na primeira vez, o motivo não ficou muito claro, então tivemos que conversar com nossos colegas”, disse, ao FT, um funcionário de uma empresa de IA com sede em Hangzhou, que pediu para não ser identificado. Ainda de acordo com o FT, o exigente processo de aprovação da China forçou grupos de IA no país a aprenderem rapidamente como treinar melhor os grandes modelos de linguagem que estão construindo, uma tarefa que vários engenheiros e insiders da indústria disseram ser difícil e complicada pela necessidade de treinar os LLMs em uma grande quantidade de conteúdo em inglês.
“Nosso modelo fundamental é muito, muito desinibido [em suas respostas], então a filtragem de segurança é extremamente importante”, disse um funcionário de uma start-up de IA em Pequim. A filtragem começa com a eliminação de informações problemáticas dos dados de treinamento e a construção de um banco de dados de palavras-chave sensíveis. A orientação operacional da China para empresas de IA, publicada em fevereiro, diz que os grupos de IA precisam coletar milhares de palavras-chave e perguntas sensíveis que violam os ‘valores socialistas centrais’, como ‘incitar a subversão do poder do estado’ ou ‘minar a unidade nacional’.
O FT procurou a CAC, ByteDance, Alibaba, Moonshot, Baidu e 01.AI, mas apontou que ninguém quis comentar o assunto.
Escolhas do editor