Segurança

Deepfake: Ataques com troca de rosto cresceram 704% em 2023

Uso de IA generativa para deepfake em tempo real é o maior problema atual.

Ataques de troca de rostos com uso de inteligência artificial cresceram, globalmente, 704% entre o primeiro e o segundo semestre de 2023, de acordo com o Relatório de Inteligência de Ameaças iProov 2024: O Impacto da IA Gerativa na Verificação Remota de Identidade.

“O grande problema hoje é a deepfake em tempo real”, destacou Daniel Molina,, vice-presidente para América Latina da iProov, ao falar com jornalistas nesta semana. Um exemplo disso é o criminoso trocando o rosto da pessoa em uma ligação de vídeo. E este tipo de golpe não é algo distante: em fevereiro deste ano, um funcionário da área financeira de uma empresa multinacional foi levado a pagar US$ 25 milhões a fraudadores que usaram tecnologia deepfake para se passar por diretor-financeiro da empresa em uma videoconferência. 

O golpe — conforme relatou a CNN, citando a polícia de Hong Kong — fez com que o trabalhador fosse levado a participar de uma videochamada com o que ele pensava serem vários outros membros da equipe, mas todos, na verdade, eram representações falsas. Ou seja, exceto este funcionário, todos os demais eram falsos. 

Elaborado a partir de dados e análises de especialistas do Security Operations Center (iSOC) da iProov, o documento examinou o cenário de ameaças de verificação remota de identidade, fornece insights em primeira mão sobre a anatomia de um ataque de injeção digital e expõe as metodologias utilizadas pelos agentes mal-intencionados, as tendências de ameaças e seus impactos. 

De acordo com Molina, a troca de rostos (face swaps) começou a aparecer em 2022, mas usando uma tecnologia que era mais fácil identificar que se tratava de fraude. Contudo, atualmente, com poucos reais é possível adquirir ferramentas muito sofisticadas e deixa muito difícil saber que é falso.  


O novo relatório de ameaças da iProov revelou ainda como os agentes mal-intencionados estão usando ferramentas avançadas de inteligência artificial, como trocas de rosto convincentes em conjunto com emuladores e outras metodologias de manipulação de metadados (ferramentas tradicionais de ataque cibernético), para criar vetores de ameaças novos e amplamente não mapeados.  

As trocas de rosto criadas usando ferramentas de IA generativas representam um enorme desafio para os sistemas de verificação de identidade devido à sua capacidade de manipular os principais traços da imagem ou dos vídeos. Uma troca de rosto pode ser facilmente gerada por um software de manipulação de rosto, e essa imagem manipulada ou sintética é utilizada para uma câmera virtual. 

Com aumento de integrações remotas e digitais — de abertura de contas em bancos a validação para consultas clínicas —, entender se a pessoa que está do outro lado da tela é quem diz ser, passou a ser um desafio. Uma maneira de entender se se trata de deepfake é analisando os metadados, disse Molina, acrescentando que mesmo assim não se pode confiar 100%. “Tem de considerar o contexto da transação”, disse.

O principal desafio das empresas é equilibrar a boa experiência do usuário com segurança.  “A estratégia da CAF é de confirmar por camadas. Não acreditamos em uma bala de prata. Temos de olhar se o dispositivo é confiável, se a geolocalização faz sentido, o IP… É uma combinação de várias variáveis e precisamos também levar em conta a experiência do usuário, porque não pode ter muita fricção”, apontou Marcelo Sousa, líder de produto na CAF, uma empresa brasileira que integra soluções da iProov com as suas próprias, atuando como orquestrador de validação de identidade. 

O relatório também apontou um aumento de 672% no uso de mídia deepfake implantada junto com a falsificação de metadados entre o 1º e o 2º semestres de 2023; um aumento de 353%, nesse período, no número de agentes de ameaças cibernéticas que utilizam emuladores, uma forma de ataque de injeção de vídeo; e um aumento de 255%, no período, nos ataques de injeção digital contra plataformas web móveis. Além disso, constatou que quase a metade (47%) dos grupos de troca de informações identificados pelos analistas da iProov foram criados em 2023.

Trata-se de um cenário completo no qual os criminosos evoluíram, estão mais organizados e profissionalizados. Antes, concordaram Molina e Sousa, o crime digital era de oportunidade e agora é um esforço concentrado que pode durar meses até encontrar as vulnerabilidades. Os atacantes também estão compartilhando dados e ferramentas para deepfake são vendidas por poucos reais na deepweb. 

Por isso, ressaltou Sousa, é tão importante a Resolução Conjunta nº 6, que determina que os bancos e instituições autorizadas pelo Banco Central devem compartilhar entre si, por meio da utilização de um sistema eletrônico que será criado especificamente para esta finalidade, todos os dados e as informações que estejam relacionados a indícios de fraudes.

O caminho para combater as fraudes é manter um equilíbrio constante. Afinal, uma transação bancária sem fricção também gera desconfiança.

Botão Voltar ao topo