Construir mensagens elaboradas ficou mais fácil com a chegada do Chat GPT no final do ano passado. Se você fez um depósito em um banco e recebeu essa mensagem por e-mail ou celular bem escrito e com o logotipo correto, pode pensar que se trata de um comunicado verdadeiro.
Afinal, o texto parece profissional, sem erros gramaticais ou saudações estranhas, exatamente como aparece nas comunicações regulares do seu banco. “Os golpistas agora têm uma gramática impecável, como se fosse um nativo”, diz Soups Ranjan, cofundador e CEO da Sardine, uma startup de prevenção de fraudes da Califórnia.
Os clientes dos bancos estão sendo enganados com mais frequência porque “as mensagens de texto que recebem são perfeitas”, confirma um executivo especializado em fraudes de um banco digital dos EUA, que pediu para não ser identificado.
Fraude: uma indústria em crescimento
Os consumidores norte-americanos relataram à Comissão Federal de Comércio que perderam um valor recorde em 2022: US$ 8,8 bilhões (R$ 43,43 bilhões, na cotação atual) para os golpistas no ano passado, um aumento de mais de 40% em relação a 2021, segundo a Comissão Federal de Comércio dos EUA. As maiores perdas vieram de fraudes de investimento, mas as fraudes de impostores foram as mais comuns, um sinal sinistro, uma vez que é provável que sejam reforçadas pela IA.
O que se observa é que medidas de prevenção como autenticação por voz ou validação de imagem em tempo real podem ficar ultrapassadas e ineficientes. É provável que, na prática, a segurança utilizada atualmente vai perder a batalha para os robôs da IA.
Casos de golpes relatados pelas companhias
Synchrony, um das mais populares operadoras de cartões de crédito nos EUA, com 70 milhões de contas ativas, vem acompanhando a tendência. “Vemos regularmente indivíduos usando fotos e vídeos deepfake para autenticação e podemos presumir com segurança que foram criados usando IA”, disse Kenneth Williams, vice-presidente sênior da empresa.
Em uma pesquisa de junho de 2023 com 650 especialistas em segurança cibernética da companhia Deep Instinct de Nova York, três em cada quatro entrevistados observaram um aumento nos ataques no ano passado, “com 85% atribuindo esse aumento a bandidos que usam IA generativa”.
Redes sociais são fontes para deepfake
Os criminosos podem usar a IA de diversas maneiras. Se você posta frequentemente nas redes sociais ou em qualquer lugar online, eles podem ensinar um modelo de IA a escrever no seu estilo. Se tiverem uma pequena amostra de áudio da sua voz, podem ligar para seus parentes reproduzindo exatamente a mesma voz e maneira de falar.
Uma empresa japonesa perdeu US$ 35 milhões depois que a voz de um diretor da companhia foi clonada – e usada para executar uma fraude elaborada em 2020. Esse caso, relatado pela primeira vez pela Forbes, foi um prenúncio do que está acontecendo com mais frequência agora, à medida que as ferramentas de IA para escrita, personificação de voz e manipulação de vídeo estão se tornando rapidamente mais competentes, mais acessíveis e mais baratas, até mesmo para os fraudadores comuns.
Enquanto antes você precisava de centenas ou milhares de fotos para criar um vídeo deepfake de alta qualidade, agora você pode fazer isso com apenas algumas fotos, diz Rick Song, cofundador e CEO da Persona, uma empresa de prevenção de fraudes. “Sim, você pode criar um vídeo falso sem ter um vídeo real, embora obviamente seja ainda mais fácil se você tiver um vídeo real nas redes”.
Assim como outras indústrias estão adaptando a IA para seus próprios usos, os criminosos também fazem o mesmo. Eles criam ferramentas prontas para uso, com nomes como FraudeGPT e WormGPT, baseado em modelos generativos de IA lançados pelos gigantes da tecnologia.
Elon Musk fake
Em um vídeo do YouTube publicado em janeiro, Elon Musk parecia estar anunciando a mais recente oportunidade de investimento em criptografia: um sorteio de US$ 100 milhões patrocinado pela Tesla, prometendo devolver o dobro da quantidade de bitcoin, ether, dogecoin ou tether que os participantes estivessem dispostos a investir.
“Eu sei que todos se reuniram aqui por um motivo. Agora temos uma transmissão ao vivo na qual cada proprietário de criptomoeda poderá aumentar sua renda”, disse a figura de baixa resolução de Musk no palco. “Sim, você ouviu direito, estou organizando um grande evento de criptografia da SpaceX.”
Como você pode concluir, o vídeo era um deepfake. Os golpistas usaram o as imagens de uma palestra que ele fez em fevereiro de 2022 para personificar sua imagem e voz. O YouTube retirou 0 vídeo do ar.
Musk é o principal alvo das personificações, já que existem inúmeras amostras de áudio dele para alimentar clones de voz habilitados para IA, mas agora praticamente qualquer pessoa pode ser personificada.
Outro desenvolvimento preocupante é a forma como até novas medidas de segurança são ameaçadas. Por exemplo, grandes instituições financeiras oferecem aos clientes a possibilidade de acessar determinados serviços por telefone, falando em vez de teclar para responder a uma pergunta de segurança. “Sua voz é única, assim como sua impressão digital”, explica um vídeo do gigante de fundos Vanguard de novembro de 2021. Mas os avanços na clonagem de voz sugerem que as empresas precisam repensar esta prática.
Agora, usando ferramentas de IA amplamente disponíveis, os golpistas podem ligar para os funcionários de uma empresa usando uma versão clonada da voz de um executivo e fingir que autorizam transações ou pedir aos funcionários que divulguem dados confidenciais.
Foto com RG não vale mais
Uma das principais funções de empresas antifraudes, atualmente, é verificar se os consumidores são quem dizem ser, através da chamada “verificação de vivacidade”.
Você precisa fazer uma selfie segurando o documento de identidade. Sabendo como funciona esse sistema, os ladrões estão comprando imagens de carteiras de motorista reais na dark web. Com isso, eles usam programas de transformação de vídeo, ferramentas que estão ficando mais baratas e amplamente disponíveis. A ferramenta permite falar e mover a cabeça atrás do rosto digital de outra pessoa, aumentando as chances de enganar uma verificação de vida.
“Houve um aumento bastante significativo no número de rostos falsos, de alta qualidade, para simular verificações de vida”, diz Song. Ele diz que o aumento varia de acordo com o setor, mas para alguns “provavelmente vemos cerca de dez vezes mais do que no ano passado”.
Criadores tentam fazer uma IA mais segura
A OpenAI tentou implantar um sistema de segurança para evitar que os usuários do ChatGPT usem a plataforma para cometer fraudes. Por exemplo, diga ao ChatGPT para redigir um e-mail solicitando o número da conta bancária de alguém e ele se recusa, dizendo: “Sinto muito, mas não posso ajudar com essa solicitação”. No entanto, continua fácil de manipular.
A OpenAI se recusou a comentar esta reportagem e encaminhou nota oficial da empresa, de março de 2022 que diz: “Não existe solução mágica para implantação responsável, por isso tentamos aprender e abordar as limitações de nossos modelos e possíveis caminhos para uso indevido, em todas as fases de desenvolvimento e implantação”.
Segundo especialistas em crimes digitais, a plataforma Llama2, lançada recentemente pela gigante Meta e que propõe gerar linguagem semelhante à humana, faz com que seja ainda mais fácil de usar IA como arma para criminosos sofisticados, pois o código é aberto. Dessa forma, os usuários podem manipular e contribuir com o banco de dados do sistema.
Meta não respondeu a solicitação de resposta da Forbes, embora o CEO, Mark Zuckerberg, tenha dito em julho que manter o código aberto do Llama pode melhorar “a segurança e a proteção, uma vez que o software de código aberto é mais examinado e mais pessoas podem encontrar e identificar soluções para problemas”.
Por outro lado, a própria IA pode ser a saída
As empresas de prevenção à fraude estão tentando inovar de forma acelerada para acompanhar o ritmo de aprofundamento dos crimes, buscando cada vez mais novos tipos de dados para detectar os ladrões.
“Como você digita, como anda ou como segura o telefone – esses recursos podem te definir, mas não são acessíveis ao domínio público”, diz Ranjan. “Para rastrear alguém ‘online’, a própria IA será importante.” Em outras palavras, será necessária a IA para encontrá-los”.
Cinco dicas para se proteger contra golpes habilitados para IA
Fortalecer contas: Use a dupla autenticação, que exige que você insira uma senha e um código adicional para verificar sua identidade. Habilite essa opção em todas as suas contas financeiras.
Seja privado: Os golpistas podem usar informações pessoais disponíveis nas redes sociais ou online para melhor se passar por você.
Chamada suspeita: Não atenda chamadas de números desconhecidos, diz Mike Steinbach, chefe de crimes financeiros e prevenção de fraudes do banco global Citi.
Frase de segurança coletiva: As famílias podem confirmar que é realmente o seu ente querido, pedindo uma palavra ou frase previamente acordada. As pequenas empresas podem adotar senhas para aprovar ações corporativas, como transferências eletrônicas solicitadas por executivos. Fique atento às mensagens de executivos solicitando compras com vale-presente – esse é um golpe comum.
Mude de assunto: Se você suspeitar que algo está errado durante uma ligação, tente fazer uma pergunta questionável, como está o tempo na cidade em que eles estão ou algo pessoal, aconselhe Frank McKenna, cofundador da empresa norte-americana de prevenção de fraudes Preditivo de Ponto.