Nesta quinta-feira (16), durante a operação Voiceover, a Polícia Civil do Distrito Federal prendeu três suspeitos de usar deepfake, técnica de manipulação de imagens e sons com IA, para aplicar golpes.
Após 27 denúncias em quatro dias, um vídeo falso com a imagem de Marcos Mion foi o catalisador da investigação. Na “propaganda” gerada por IA, o apresentador divulga uma promoção do restaurante Outback. No entanto, ao clicar no link, as vítimas eram redirecionadas a um site falso.
Leia também
De acordo com a apuração, o objetivo do golpe era coletar dados pessoais para a aplicação de fraudes financeiras.
“Figuras públicas são alvos preferenciais pois seus nomes geram mais engajamento e repercussão. Criadores de deepfakes maliciosas buscam causar o maior impacto possível, seja para prejudicar a imagem da pessoa alvo ou para aumentar visualizações e aplicar golpes”, explica Fabrício Carraro, especialista em IA e program manager da Alura.
A lista de personalidades brasileiras que já foram “clonadas” pela IA é extensa e inclui nomes como Neymar, Anitta, Eliana, Ana Maria Braga, William Bonner, Drauzio Varella, Ivete Sangalo, Mano Brown e Jade Picon – além de figuras da política nacional.
“As deepfakes estão crescendo não apenas no Brasil, mas em todo o mundo, impulsionadas, principalmente, pelo acesso às ferramentas de IA. Hoje, qualquer pessoa com um smartphone pode gerar deepfakes em minutos”, pontua Carraro.
Como Reconhecer Conteúdos Falsos
Para não cair em armadilhas online, o especialista recomenda a adoção de uma postura de “ceticismo crítico”. “Isso significa sempre questionar a autenticidade de vídeos, áudios ou imagens, mesmo quando provêm de fontes conhecidas, como amigos ou familiares.”
Ademais, existem algumas dicas práticas para reconhecer conteúdos feitos por IA. Confira:
- Observe o movimento dos olhos e da boca: deepfakes têm dificuldade em replicar movimentos naturais dos olhos e na sincronia da fala com os lábios.
- Preste atenção na iluminação e sombras: inconsistências podem indicar manipulação.
- Verifique a qualidade da voz e do áudio: conteúdos gerados por deepfake podem parecer artificiais, com entonações ou pausas incomuns.
- Analise detalhes no rosto: olhe para as bordas do rosto ou para áreas como o cabelo e os óculos.
- Procure por movimentos corporais anormais: em vídeos, observe se os gestos e os movimentos corporais parecem naturais e consistentes com a pessoa.
- Questione mensagens sensacionalistas: golpistas costumam usar deepfakes para causar impacto e criar urgência.
- Observe a resolução do vídeo: os vídeos frequentemente apresentam baixa qualidade.
- Confirme com fontes confiáveis: se algo parecer suspeito, entre em contato diretamente com a pessoa ou instituição envolvida ou pesquise em fontes confiáveis para confirmar a veracidade.