Afinal, o texto parece profissional, sem erros gramaticais ou saudações estranhas, exatamente como aparece nas comunicações regulares do seu banco. “Os golpistas agora têm uma gramática impecável, como se fosse um nativo”, diz Soups Ranjan, cofundador e CEO da Sardine, uma startup de prevenção de fraudes da Califórnia.
Os clientes dos bancos estão sendo enganados com mais frequência porque “as mensagens de texto que recebem são perfeitas”, confirma um executivo especializado em fraudes de um banco digital dos EUA, que pediu para não ser identificado.
Fraude: uma indústria em crescimento
O que se observa é que medidas de prevenção como autenticação por voz ou validação de imagem em tempo real podem ficar ultrapassadas e ineficientes. É provável que, na prática, a segurança utilizada atualmente vai perder a batalha para os robôs da IA.
Casos de golpes relatados pelas companhias
Synchrony, um das mais populares operadoras de cartões de crédito nos EUA, com 70 milhões de contas ativas, vem acompanhando a tendência. “Vemos regularmente indivíduos usando fotos e vídeos deepfake para autenticação e podemos presumir com segurança que foram criados usando IA”, disse Kenneth Williams, vice-presidente sênior da empresa.
Em uma pesquisa de junho de 2023 com 650 especialistas em segurança cibernética da companhia Deep Instinct de Nova York, três em cada quatro entrevistados observaram um aumento nos ataques no ano passado, “com 85% atribuindo esse aumento a bandidos que usam IA generativa”.
Redes sociais são fontes para deepfake
Uma empresa japonesa perdeu US$ 35 milhões depois que a voz de um diretor da companhia foi clonada – e usada para executar uma fraude elaborada em 2020. Esse caso, relatado pela primeira vez pela Forbes, foi um prenúncio do que está acontecendo com mais frequência agora, à medida que as ferramentas de IA para escrita, personificação de voz e manipulação de vídeo estão se tornando rapidamente mais competentes, mais acessíveis e mais baratas, até mesmo para os fraudadores comuns.
Enquanto antes você precisava de centenas ou milhares de fotos para criar um vídeo deepfake de alta qualidade, agora você pode fazer isso com apenas algumas fotos, diz Rick Song, cofundador e CEO da Persona, uma empresa de prevenção de fraudes. “Sim, você pode criar um vídeo falso sem ter um vídeo real, embora obviamente seja ainda mais fácil se você tiver um vídeo real nas redes”.
Assim como outras indústrias estão adaptando a IA para seus próprios usos, os criminosos também fazem o mesmo. Eles criam ferramentas prontas para uso, com nomes como FraudeGPT e WormGPT, baseado em modelos generativos de IA lançados pelos gigantes da tecnologia.
Elon Musk fake
“Eu sei que todos se reuniram aqui por um motivo. Agora temos uma transmissão ao vivo na qual cada proprietário de criptomoeda poderá aumentar sua renda”, disse a figura de baixa resolução de Musk no palco. “Sim, você ouviu direito, estou organizando um grande evento de criptografia da SpaceX.”
Como você pode concluir, o vídeo era um deepfake. Os golpistas usaram o as imagens de uma palestra que ele fez em fevereiro de 2022 para personificar sua imagem e voz. O YouTube retirou 0 vídeo do ar.
Musk é o principal alvo das personificações, já que existem inúmeras amostras de áudio dele para alimentar clones de voz habilitados para IA, mas agora praticamente qualquer pessoa pode ser personificada.
Agora, usando ferramentas de IA amplamente disponíveis, os golpistas podem ligar para os funcionários de uma empresa usando uma versão clonada da voz de um executivo e fingir que autorizam transações ou pedir aos funcionários que divulguem dados confidenciais.
Foto com RG não vale mais
Uma das principais funções de empresas antifraudes, atualmente, é verificar se os consumidores são quem dizem ser, através da chamada “verificação de vivacidade”.
Você precisa fazer uma selfie segurando o documento de identidade. Sabendo como funciona esse sistema, os ladrões estão comprando imagens de carteiras de motorista reais na dark web. Com isso, eles usam programas de transformação de vídeo, ferramentas que estão ficando mais baratas e amplamente disponíveis. A ferramenta permite falar e mover a cabeça atrás do rosto digital de outra pessoa, aumentando as chances de enganar uma verificação de vida.
Criadores tentam fazer uma IA mais segura
A OpenAI tentou implantar um sistema de segurança para evitar que os usuários do ChatGPT usem a plataforma para cometer fraudes. Por exemplo, diga ao ChatGPT para redigir um e-mail solicitando o número da conta bancária de alguém e ele se recusa, dizendo: “Sinto muito, mas não posso ajudar com essa solicitação”. No entanto, continua fácil de manipular.
A OpenAI se recusou a comentar esta reportagem e encaminhou nota oficial da empresa, de março de 2022 que diz: “Não existe solução mágica para implantação responsável, por isso tentamos aprender e abordar as limitações de nossos modelos e possíveis caminhos para uso indevido, em todas as fases de desenvolvimento e implantação”.
Segundo especialistas em crimes digitais, a plataforma Llama2, lançada recentemente pela gigante Meta e que propõe gerar linguagem semelhante à humana, faz com que seja ainda mais fácil de usar IA como arma para criminosos sofisticados, pois o código é aberto. Dessa forma, os usuários podem manipular e contribuir com o banco de dados do sistema.
Por outro lado, a própria IA pode ser a saída
As empresas de prevenção à fraude estão tentando inovar de forma acelerada para acompanhar o ritmo de aprofundamento dos crimes, buscando cada vez mais novos tipos de dados para detectar os ladrões.
“Como você digita, como anda ou como segura o telefone – esses recursos podem te definir, mas não são acessíveis ao domínio público”, diz Ranjan. “Para rastrear alguém ‘online’, a própria IA será importante.” Em outras palavras, será necessária a IA para encontrá-los”.
Cinco dicas para se proteger contra golpes habilitados para IA
Fortalecer contas: Use a dupla autenticação, que exige que você insira uma senha e um código adicional para verificar sua identidade. Habilite essa opção em todas as suas contas financeiras.
Chamada suspeita: Não atenda chamadas de números desconhecidos, diz Mike Steinbach, chefe de crimes financeiros e prevenção de fraudes do banco global Citi.
Frase de segurança coletiva: As famílias podem confirmar que é realmente o seu ente querido, pedindo uma palavra ou frase previamente acordada. As pequenas empresas podem adotar senhas para aprovar ações corporativas, como transferências eletrônicas solicitadas por executivos. Fique atento às mensagens de executivos solicitando compras com vale-presente – esse é um golpe comum.
Mude de assunto: Se você suspeitar que algo está errado durante uma ligação, tente fazer uma pergunta questionável, como está o tempo na cidade em que eles estão ou algo pessoal, aconselhe Frank McKenna, cofundador da empresa norte-americana de prevenção de fraudes Preditivo de Ponto.