
Na guerra de gato e rato, a Anthropic informou nesta quarta-feira, 27/8, que detectou e bloqueou hackers que tentavam usar indevidamente seu sistema de IA Claude para escrever e-mails de phishing; criar códigos maliciosos e burlar filtros de segurança. A ação foi divulgada em relatório da companhia.
O levantamento relata que seus sistemas internos interromperam os ataques e que a empresa está compartilhando os estudos de caso – mostrando como os invasores tentaram usar a IA Claude para produzir conteúdo prejudicial – para ajudar outras pessoas a entender os riscos.
O relatório citou tentativas de usar a IA Claude para redigir e-mails de phishing personalizados; escrever ou corrigir trechos de código malicioso e contornar salvaguardas por meio de solicitações repetidas. Também descreveu esforços para criar campanhas de influência, gerando postagens persuasivas em larga escala e auxiliando hackers com pouca habilidade com instruções passo a passo.
Especialistas afirmam que os criminosos estão recorrendo cada vez mais à IA para tornar os golpes mais convincentes e acelerar as tentativas de invasão. Essas ferramentas podem ajudar a escrever mensagens de phishing realistas, automatizar partes do desenvolvimento de malware e até mesmo auxiliar no planejamento de ataques.