Os usuários das redes sociais estão usando cada vez mais palavras-chave, emojis e erros de digitação deliberados – o chamado “algospeak”, palavra que funde algoritmo e falar (speak) – para evitar a detecção pela Inteligência Artificial (IA) de moderação dos aplicativos ao postar conteúdo sensível ou que possa violar suas regras.
Siobhan Hanna, que supervisiona as soluções de dados de IA para a Telus International, uma empresa canadense que fornece serviços de moderação de conteúdo humano e de IA para quase todas as principais plataformas de mídia social, incluindo o TikTok, disse que “acampar” é apenas uma frase que foi adaptada dessa maneira. “Havia a preocupação de que os algoritmos pudessem captar menções” ao aborto, disse Hanna.
Mais da metade dos norte-americanos dizem ter visto um aumento no algospeak à medida que eventos políticos, culturais ou globais polarizadores se desenrolam, de acordo com novos dados da Telus de uma pesquisa com mil pessoas nos EUA no mês passado.
Leia mais: Fiorella Mattheis fala sobre a nova fase phygital da Gringa
Quase um terço deles que estão presentes nas mídias sociais e sites de jogos dizem que “usam emojis ou frases alternativas para contornar termos proibidos”, como aqueles que são racistas, sexuais ou relacionados à automutilação, de acordo com os dados.
O Algospeak é mais comumente usado para contornar as regras que proíbem o discurso de ódio, incluindo assédio e bullying, disse Hanna, seguido por políticas sobre violência e exploração.
Percorremos um longo caminho desde “pr0n” e o emoji de berinjela. Essas soluções alternativas em constante evolução representam um desafio crescente para as empresas de tecnologia e seus contratados que buscam ajudá-las a policiar o conteúdo.
Embora a inteligência artificial possa identificar materiais violadores evidentes, como discurso de ódio, pode ser muito mais difícil para a IA ler nas entrelinhas de eufemismos ou frases que para alguns parecem sem sentido, mas em outro contexto, têm um significado mais forte.
O termo “pizza de queijo”, por exemplo, tem sido amplamente utilizado por contas que oferecem a troca de imagens explícitas de crianças.
O emoji de milho é frequentemente usado para falar ou tentar direcionar as pessoas para pornografia (apesar de uma tendência viral não relacionada que tem muitos cantando sobre seu amor por milho no TikTok). E reportagens anteriores da Forbes revelaram o duplo sentido de frases mundanas, como “toque no teto”, usadas para persuadir meninas a ganhar mais seguidores exibindo seus corpos.
“Uma das áreas que mais nos preocupam é a exploração infantil e humana”, disse Hanna à Forbes. É “uma das vertentes de evolução mais rápida do algospeak”.
Mas Hanna disse que não depende da Telus se certos termos do algospeak devem ser retirados ou rebaixados. São as plataformas que “estabelecem as diretrizes e tomam decisões sobre onde pode haver um problema”, disse ela.
“Normalmente, não tomamos decisões radicais sobre o conteúdo”, disse ela à Forbes. “Eles são realmente conduzidos por nossos clientes que são os donos dessas plataformas. Estamos agindo em nome deles.”
Leia mais: Como atualização do Ethereum afeta o futuro da blockchain
Por exemplo, a Telus não restringe o algospeak em torno de momentos políticos ou sociais de alto risco, disse Hanna, citando “acampar” como um exemplo. A empresa não informou se algum de seus clientes baniu certos termos do algospeak.
As referências de “acampamento” surgiram 24 horas após a decisão da Suprema Corte e aumentaram nas semanas seguintes, de acordo com Hanna.
Mas “acampar” como um fenômeno de algospeak se esgotou “porque se tornou tão onipresente que não era mais uma palavra-chave”, explicou ela. É assim que o algospeak funciona normalmente: “Ele vai aumentar, vai atrair muita atenção, vai começar a se transformar em uma espécie de memeficação e meio que desaparecerá”.
Novas formas de algospeak também surgiram nas mídias sociais em torno da guerra na Ucrânia, disse Hanna, com pôsteres usando o termo “não vivo”, por exemplo – em vez de mencionar “morto” e “soldados” na mesma frase – para evitar a detecção de IA .
E nas plataformas de jogos, ela acrescentou, o algospeak é frequentemente incorporado em nomes de usuários ou “gamertags” como declarações políticas.
Um exemplo: referências numéricas a “6/4”, o aniversário do massacre de 1989 na Praça da Paz Celestial em Pequim.
“A comunicação em torno desse evento histórico é bastante controlada na China”, disse Hanna, então, embora isso possa parecer “um pouco obscuro, nessas comunidades que são muito, muito unidas, isso pode realmente ser uma declaração politicamente aquecida para fazer em seu país.”
A Telus também espera ver um aumento no algospeak online em torno das iminentes eleições de meio de mandato.
Outras maneiras de evitar ser moderado pela IA envolvem propositalmente erros de ortografia ou substituição de letras por símbolos e números, como “$” para “S” e o número zero para a letra “O”. Muitas pessoas que falam sobre sexo no TikTok, por exemplo, referem-se a ele como “seggso” ou “seggsual”.
Em algospeak, os emojis “são muito comumente usados para representar algo que o emoji não foi originalmente imaginado”, disse Hanna.
Em alguns contextos, isso pode ser mesquinho, mas inofensivo: o emoji de caranguejo está aparecendo no Reino Unido como um revirar de olhos metafórico, ou resposta mal-humorada, à morte da rainha Elizabeth, disse ela. Mas em outros casos, é mais malicioso: o emoji ninja em alguns contextos foi substituído por termos depreciativos e discurso de ódio sobre a comunidade negra, de acordo com Hanna.
Existem poucas leis que regulam as mídias sociais, e a moderação de conteúdo é uma das questões de política de tecnologia mais controversas no prato do governo.
Desentendimentos partidários frustraram legislações como a Algorithmic Accountability Act, um projeto de lei destinado a garantir que a IA (como aquela que alimenta a moderação de conteúdo) seja gerenciada de maneira ética e transparente.
Na ausência de regulamentações, os gigantes da mídia social e suas empresas de moderação externas estão fazendo isso sozinhos. Mas especialistas levantaram preocupações sobre responsabilidade e pediram um inquérito dessas relações.
A Telus fornece moderação de conteúdo assistida por humanos e por IA, e mais da metade dos participantes da pesquisa enfatizaram que é muito importante ter humanos na mistura.
“A IA pode não captar as coisas que os humanos podem”, escreveu um entrevistado. E outro: “As pessoas são boas em evitar filtros”.