Ainda que haja exemplos ao longo da história, desde a Grécia antiga até o século 18, de pessoas que praticavam fisiognomia – técnica que indica o caráter ou o estilo de vida de alguém com base nos traços de seu rosto -, um estudo recente da Universidade Stanford levou o conceito a uma versão muito mais moderna: computadores capazes de determinar se uma pessoa é hetero ou homossexual por meio de tecnologia de detecção facial.
VEJA TAMBÉM: Como utilizar a inteligência artificial para apoiar o trabalho humano
O estudo de Yilun Wang e Michael Kosinski, que utilizou mais de 35 mil imagens faciais de homens e mulheres que estavam publicamente disponíveis em um website de relacionamentos dos Estados Unidos, descobriu que o algoritmo de computador estava correto 81% das vezes quando era utilizado para descobrir a orientação sexual de homens, e 74% das vezes para mulheres. A precisão aumentou para 91% quando o computador avaliou cinco imagens por pessoa. Humanos que olhavam para as mesmas fotos foram precisos em 61% das tentativas.
Estudo, que utilizou mais de 35 mil imagens faciais de homens e mulheres, descobriu que o algoritmo de computador estava correto 81% das vezes quando era utilizado para distinguir homens heteros e homossexuais e 74% das vezes para mulheresUm padrão que as máquinas detectaram no estudo foi que homens e mulheres homossexuais costumavam ter traços e expressões “atípicos para o gênero” – homens gays pareciam mais femininos e mulheres lésbicas pareciam mais masculinas. Outra tendência que as máquinas identificaram é que mulheres homossexuais tendem a ter mandíbulas maiores e testas menores do que as heterossexuais, enquanto homens gays têm testas maiores, narizes mais longos e maxilares mais estreitos do que os heterossexuais.
Os pesquisadores descobriram que os computadores prestam mais atenção no decote, nos cantos da boca, no cabelo e no nariz na análise das mulheres, e no queixo, nos olhos, nas sobrancelhas, no nariz e no contorno do couro cabeludo no caso dos homens para ajudar a determinar a orientação sexual da pessoa.
Wang e Kosinski usaram a VGG-Face, uma rede neural profunda que já existe e foi originalmente treinada para reconhecimento facial ao aprender a identificar padrões em uma amostra de 2,6 milhões de imagens. Uma rede neural é um conjunto de algoritmos que é largamente modelado com base no cérebro humano e desenhado para reconhecer modelos em uma grande quantidade de dados com o objetivo de classificá-los. Sistemas similares de inteligência artificial poderiam ser treinados para identificar outras características humanas, como QI e visões políticas, sugere Dr. Kosinski.
Quando o estudo foi divulgado na publicação científica “Journal of Personality and Social Psychology”, começou a levantar preocupações sobre o potencial do seu tipo de caracterização acabar indo por um caminho negativo.
LEIA: China pode superar Estados Unidos em inteligência artificial
Há bilhões de imagens faciais publicamente disponíveis em sites e bases de dados do governo. Esse estudo usou tecnologia existente para extrair significados importantes apenas de características faciais – e os autores do estudo nos deram um vislumbre de quão poderoso isso pode ser. É possível imaginar como essa capacidade poderia ser utilizada para razões desonestas.
Em um artigo do jornal “The Guardian” sobre o assunto, Nick Rule, professor de psicologia da Universidade de Toronto que publicou pesquisas sobre a ciência da identificação de orientação sexual de terceiros, diz: “É certamente inquietante. Como qualquer nova ferramenta, se isso cair nas mãos erradas, pode ser utilizada para propósitos negativos”.
O estudo utilizou imagens disponíveis. Há certamente preocupações de privacidade sobre como a tecnologia de detecção facial é utilizada. É aceitável para caçar terroristas, criminosos e pessoas desaparecidas, mas uma linha é cruzada quando apenas extraímos informações de qualquer rosto que podemos capturar sem o consentimento da pessoa? Qual é a ética em relação a isso? Como podemos garantir que essa tecnologia não seja utilizada para propósitos anti-LGBT ou no futuro para discriminação com base em QI ou visões políticas? Como podemos alcançar o equilíbrio entre usar os insights desse estudo para informar nossas estratégias de inteligência artificial em vez de generalizar (por exemplo, todos os homens com expressões atípicas para seu gênero são gays)?
Tal como se encontra, ainda que a IA tenha sido melhor do que os humanos para distinguir orientação sexual, não foi 100%. Além disso, é realmente direito de alguém extrair essa informação sem o consentimento da pessoa?
Na verdade, Dr. Kosinski diz que seu estudo foi feito como uma demonstração para “alertar os elaboradores de políticas públicas do poder da visão das máquinas”. Na última disputa presidencial norte-americana, a campanha de Trump utilizou “perfilagem psicométrica” e modelos similares aos utilizados no estudo para identificar possíveis eleitores no Facebook que tinham determinadas características de personalidade. Com o volume sempre crescente de dados alimentando os algoritmos das máquinas de programas de detecção facial, eles vão se tornar melhores ao longo do tempo, e usos potenciais também tendem a crescer.
Copyright Forbes Brasil. Todos os direitos reservados. É proibida a reprodução, total ou parcial, do conteúdo desta página em qualquer meio de comunicação, impresso ou digital, sem prévia autorização, por escrito, da Forbes Brasil ([email protected]).