Entre os inúmeros desafios que os pais vivenciam ao criar os filhos está ensiná-los a fazer aquilo que eles dizem – e não o que fazem. Algo similar está desafiando a inteligência artificial.
LEIA MAIS: Google adquire time de desenvolvimento da HTC por US$ 1,1 bilhão
À medida que mais aplicativos e softwares usam a tecnologia para automatizar tarefas, um modelo popular de suporte de dados chamado vetores de palavras (“word embedding”, em inglês) também adquiriu preconceitos sociais enraizados. O resultado é que alguns serviços, como o de tradução, estão repetindo esses comportamentos de forma sútil, mas preocupante.
No início deste ano, por exemplo, exemplos de preconceitos de gênero começaram a aparecer nas mídias sociais com o Google Tradutor. Tente traduzir termos do turco para o inglês, que tem pronomes neutros, e uma frase como “o bir muhendis” se torna “ele é um engenheiro”, enquanto “o bir hemsire” vira “ela é uma enfermeira”.
O serviço de tradução da Microsoft, o Bing, tem um problema similar devido ao uso de gênero na gramática – como o “le” e o “la” em francês e o “der” e “die” em alemão. Quando o Bing traduz “a mesa é macia” para o alemão, ele oferece o feminino “die Tabelle”, que se refere a uma tabela de figuras.
“Essas associações de gênero são projetadas nos objetos”, diz Kate McCurdy, linguista computacional da startup de idiomas Babbel em Berlim, na Alemanha, que descobriu o problema no tradutor. “Objetos que são masculinos gramaticalmente recebem propriedades masculinas. A tecnologia está aprendendo a pegar os estereótipos de sexo e projetá-los no mundo dos pronomes.”
Os algoritmos de tradução estão fazendo isso em parte por causa de um difundido método de aprendizagem para máquinas que é usado pelos serviços do Google Tradutor e pelas recomendações de pesquisa do Google, do Netflix e do Spotify, chamado vetores de palavras.
VEJA TAMBÉM: Inteligência artificial: previsões para 2018
O método liga as palavras a um vetor de números, cujo algoritmo pode calcular a probabilidade. Ao olhar para o que as palavras tendem a ser, como “engenheiro”, o modelo é usado para descobrir qual o melhor pronome para encaixar, nesse caso “ele”. O preço de aprender com métodos de palavras e diálogos já existentes é que eles recuperam o desequilíbrio entre os gêneros quando se trata de empregos ou oportunidades.
Um estudo de 2016 que treinou modelos de vetores de palavras em artigos do Google mostrou estereótipos de gênero em “uma extensão perturbadora”, segundo os pesquisadores.
Kate diz que não há, necessariamente, nada de errado com os modelos, mas que eles precisam de orientação humana e supervisão. “O padrão de hoje é construir essas aplicações, lançá-las no mundo e, então, resolver os problemas”, diz. “Mas, se nós fôssemos mais deliberados sobre isso e levássemos as coisas mais sério, trabalharíamos mais para integrar uma perspectiva mais crítica.”
Companhias que usam esse modelo para criar serviços para os consumidores também precisam de programadores mais diversos, aumentando a probabilidade de identificar os riscos de frases preconceituosas antes de elas surgirem.
Copyright Forbes Brasil. Todos os direitos reservados. É proibida a reprodução, total ou parcial, do conteúdo desta página em qualquer meio de comunicação, impresso ou digital, sem prévia autorização, por escrito, da Forbes Brasil ([email protected])