Como se viu, o clipe não era genuíno: foi gerado usando IA de ponta. O comercial surpreendeu, divertiu e encantou os espectadores.
LEIA MAIS: Enquanto o Facebook proíbe “deepfakes”, Snapchat e Tik Tok correm na direção oposta
O anúncio da State Farm foi um exemplo benigno de um novo e importante fenômeno perigoso na IA: deepfakes. A tecnologia deepfake permite que qualquer pessoa com um computador e uma conexão à internet crie fotos e vídeos com aparência realista de pessoas dizendo e fazendo coisas que na verdade não disseram ou fizeram.
Combinação das expressões “deep learning” (aprendizado profundo) e “fake” (falso), as deepfakes surgiram pela primeira vez na internet no final de 2017, alimentadas por um novo método inovador de aprendizado profundo conhecido como redes adversárias generativas (GANs, na sigla em inglês).
Vários vídeos deepfake se tornaram virais recentemente, dando a milhões de pessoas em todo o mundo o primeiro gosto dessa nova tecnologia, por exemplo: o presidente Obama usando um palavrão para descrever o presidente Trump, Mark Zuckerberg admitindo que o verdadeiro objetivo do Facebook é manipular e explorar seus usuários, Bill Hader se transformando em Al Pacino em um programa de entrevistas tarde da noite.
Embora impressionante, a tecnologia deepfake de hoje ainda não é parecida com imagens de vídeo autênticos. Olhando de perto, normalmente é possível dizer que um vídeo é uma deepfake. Mas a tecnologia está melhorando em um ritmo de tirar o fôlego. Os especialistas prevêem que as deepfakes serão indistinguíveis das imagens reais em pouco tempo.
“Em janeiro de 2019, deepfakes eram travadas e mostravam tremulações”, disse Hany Farid, professor da UC Berkeley e especialista em deepfake. “Nove meses depois, nunca vi nada parecido com o quão rápido eles estão indo. Esta é a ponta do iceberg.”
Hoje, estamos em um ponto de inflexão. Nos próximos meses e anos, as deepfakes ameaçam sair de um estado de raridade na internet para uma força política e social amplamente destrutiva. A sociedade precisa agir agora para se preparar.
O primeiro caso de uso ao qual a tecnologia deepfake foi amplamente aplicada (como costuma ser o caso das novas tecnologias) é a pornografia. Em setembro de 2019, 96% dos vídeos deepfake online eram pornográficos, de acordo com o relatório Deeptrace.
Surgiram vários sites dedicados especificamente à pornografia deepfake, que coletivamente receberam centenas de milhões de visualizações nos últimos dois anos. A pornografia deepfake quase sempre não é consensual, envolvendo a síntese artificial de vídeos explícitos que apresentam celebridades famosas ou contatos pessoais.
Saindo dos cantos escuros da web, o uso de deepfakes começou a se espalhar para a esfera política, onde o potencial de confusão é ainda maior.
Por causa da ampla acessibilidade da tecnologia, essas imagens podem ser criadas por qualquer pessoa: atores patrocinados pelo Estado, grupos políticos, indivíduos isolados.
Em um relatório recente, a Brookings Institution listou os perigos políticos e sociais que as deepfakes representam: “distorção do discurso democrático, manipulação de eleições, diminuição da confiança nas instituições, enfraquecimento do jornalismo, aumento de divisões sociais, comprometimento da segurança pública, e danos difíceis de reparar à reputação de pessoas proeminentes, incluindo cargos públicos e candidatos a cargos.”
Dado o que está em jogo, os legisladores dos EUA começaram a prestar atenção.
Os especialistas em tecnologia concordam. Nas palavras de Hani Farid, um dos principais especialistas mundiais em deepfakes: “Se não podemos acreditar nos vídeos, nos áudios, na imagem, nas informações coletadas em todo o mundo, isso representa um sério risco à segurança nacional.”
Esse risco não é mais apenas hipotético: existem exemplos iniciais de deepfakes que influenciam a política no mundo real. Especialistas afirmam que esses incidentes são apenas um alerta do que está por vir.
No mês passado, um grupo político na Bélgica divulgou um vídeo em profundidade do primeiro-ministro belga, fazendo um discurso que ligava o surto de Covid-19 a danos ambientais e pedia ações drásticas sobre as mudanças climáticas. Pelo menos alguns espectadores acreditavam que o discurso era real.
No final de 2018, o presidente do Gabão, Ali Bongo, não era visto em público havia meses. Havia rumores de que ele não era mais saudável o suficiente para o cargo ou mesmo que ele tinha morrido. Na tentativa de acalmar essas preocupações e reafirmar a liderança de Bongo sobre o país, seu governo anunciou que ele daria um discurso televisionado em todo o país no dia de Ano Novo.
No vídeo, Bongo parece rígido e empolgado, com discurso não natural e maneirismos faciais. O vídeo imediatamente provocou suspeitas de que o governo estivesse ocultando algo do público. Os opositores políticos declararam que as filmagens eram um golpe profundo e que o presidente estava incapacitado ou morto. Os rumores de uma conspiração profunda se espalharam rapidamente nas mídias sociais.
A situação política no Gabão se desestabilizou rapidamente. Dentro de uma semana, os militares lançaram um golpe –o primeiro no país desde 1964–, citando o vídeo do Ano Novo como prova de que algo estava errado com o presidente.
Mas se a veracidade do vídeo é quase irrelevante. A lição mais ampla é que o surgimento de deepfakes tornará cada vez mais difícil para o público distinguir entre o que é real e o que é falso, uma situação que os atores políticos inevitavelmente explorarão –com consequências potencialmente devastadoras.
“As pessoas já estão usando o fato de que as deepfakes existem para desacreditar evidências de vídeo genuínas”, disse o professor da USC, Hao Li. “Embora haja imagens de alguém fazendo ou dizendo algo, você pode dizer que é uma deepfake e é muito difícil provar o contrário.”
Em dois incidentes recentes, políticos na Malásia e no Brasil tentaram evitar as consequências de vídeos, alegando que as imagens eram falsas. Nos dois casos, ninguém foi capaz de estabelecer definitivamente o contrário –e a opinião pública permaneceu dividida.
Em um mundo em que imagens não são mais representantes da verdade, a capacidade de uma grande comunidade concordar com o que é verdadeiro –ou de se envolver em um diálogo construtivo sobre o assunto– de repente parece precária.
Um jogo tecnológico de gato e rato
A principal tecnologia que possibilita as deepfakes é um ramo do deep learning, conhecido como redes contraditórias generativas (GANs, na sigla em inglês). As GANs foram inventadas por Ian Goodfellow em 2014 durante seus estudos de doutorado na Universidade de Montreal, um dos principais institutos de pesquisa em IA do mundo.
Em 2016, Yann LeCun chamou as GANs de “a ideia mais interessante nos últimos dez anos em aprendizado de máquina”.
Antes do desenvolvimento das GANs, as redes neurais eram hábeis em classificar o conteúdo existente (por exemplo, entender a fala ou reconhecer rostos), mas não na criação de novos conteúdos. As GANs deram às redes neurais o poder não apenas de perceber, mas de criar.
A inovação conceitual de Goodfellow foi arquitetar GANs usando duas redes neurais separadas –uma conhecida como “geradora” e outra conhecida como “discriminadora”– e colocá-las umas contra as outras.
À medida que as duas redes trabalham interativamente uma contra a outra –o gerador tentando enganar o discriminador, o discriminador tentando descobrir as criações do gerador– elas aprimoram as capacidades um do outro. Eventualmente, a taxa de sucesso da classificação do discriminador cai para 50%, nada melhor do que suposições aleatórias, o que significa que as fotos geradas sinteticamente se tornaram indistinguíveis das originais.
Uma das razões pelas quais deepfakes proliferaram é o ethos de código aberto da comunidade de aprendizado de máquina: a partir do artigo original da Goodfellow, sempre que ocorre um avanço na pesquisa em modelagem generativa, a tecnologia geralmente é disponibilizada gratuitamente para qualquer pessoa no mundo baixar e utilizar.
Dado que as deepfakes são baseadas inteligência artificial em primeiro lugar, alguns consideram a IA uma solução para aplicativos prejudiciais da complexa tecnologia. Por exemplo, os pesquisadores construíram sistemas sofisticados de detecção de deepfake que avaliam iluminação, sombras, movimentos faciais e outros recursos para sinalizar imagens fabricadas. Outra abordagem defensiva inovadora é adicionar um filtro a um arquivo de imagem que impossibilite a geração de uma deepfake.
No entanto, é provável que essas soluções tecnológicas não impeçam a propagação de deepfakes no longo prazo. Na melhor das hipóteses, elas levarão a uma dinâmica interminável de gato e rato, semelhante à que existe hoje na segurança cibernética, na qual os avanços na pesquisa de detecção de deepfake estimulam mais inovações no setor. A natureza de código aberto da pesquisa em IA torna isso ainda mais provável.
Para dar um exemplo, em 2018 os pesquisadores da Universidade de Albany publicaram uma análise mostrando que as irregularidades no brilho costumavam ser um sinal revelador de que um vídeo era falso. Foi um avanço útil –até que, em meses, começaram a surgir novos vídeos que corrigiam essa imperfeição.
“Estamos desarmados”, disse Farid. “O número de pessoas que trabalham no lado da síntese de vídeo, em oposição ao lado do detector, é de 100 a 1.”
Olhando além das soluções puramente tecnológicas, que medidas legislativas, políticas e sociais podemos tomar para nos defendermos dos perigos das deepfakes?
Uma solução simples e tentadora é aprovar leis que tornam ilegal a criação ou disseminação desses vídeos. O estado da Califórnia experimentou essa abordagem, promulgando uma lei no ano passado que torna ilegal a criação ou distribuição de falsas acusações de políticos dentro de 60 dias após a eleição. Porém, uma proibição generalizada tem desafios constitucionais e práticos.
A Primeira Emenda da Constituição dos EUA consagra a liberdade de expressão. Qualquer lei que proíba conteúdo online, particularmente conteúdo político, corre o risco de entrar em conflito com essas proteções constitucionais.
Além das preocupações constitucionais, as proibições provavelmente serão impraticáveis devido ao anonimato e falta de fronteiras da internet.
Outras estruturas legais existentes que podem ser implementadas para combater as deepfakes incluem direitos autorais, difamação e direito à publicidade. Mas, dada a ampla aplicabilidade da doutrina do uso justo, a utilidade dessas vias legais pode ser limitada.
No curto prazo, a solução mais eficaz pode vir das principais plataformas de tecnologia, como Facebook, Google e Twitter, voluntariamente adotando medidas mais rigorosas para limitar a disseminação de deepfakes prejudiciais.
Uma opção legislativa relacionada é alterar a polêmica Seção 230 da Lei de Decência das Comunicações. Escrita no princípio da internet comercial, a Seção 230 oferece às empresas de internet quase completa imunidade civil para qualquer conteúdo postado em suas plataformas por terceiros. Voltar essas proteções tornaria companhias como o Facebook legalmente responsáveis por limitar a propagação de conteúdo prejudicial em seus sites. Mas essa abordagem levanta preocupações complexas de liberdade de expressão e censura.
E TAMBÉM: Como os usuários do Tik Tok estão espalhando fake news sobre o coronavírus
No final, nenhuma solução será suficiente. Um primeiro passo essencial é simplesmente aumentar a conscientização do público sobre as possibilidades e os perigos das deepfakes. Um cidadão informado é uma defesa crucial contra desinformação generalizada.
“O homem na frente do tanque na praça Tiananmen mudou o mundo”, disse Nasir Memon, professor da Universidade de Nova York. “Nixon ao telefone custou a presidência. Imagens de horror dos campos de concentração finalmente nos levaram à ação. Se a noção de não acreditar no que você vê está sob ataque, isso é um grande problema. É preciso restaurar a verdade para enxergar com clareza novamente.”
Facebook
Twitter
Instagram
YouTube
LinkedIn
Baixe o app da Forbes Brasil na Play Store e na App Store.
Tenha também a Forbes no Google Notícias.