A Anthropic anunciou, nesta quinta-feira (13), o que descreveu como o primeiro caso documentado de uma campanha de ciberespionagem em larga escala quase totalmente realizada por inteligência artificial. Segundo a empresa, a campanha, que ocorreu ao longo de setembro de 2025, visou grandes empresas de tecnologia, instituições financeiras, empresas de fabricação química e agências governamentais.
A investigação da Anthropic aponta que o ataque foi orquestrado por um grupo cibernético associado ao Estado chinês. Utilizando o modelo Claude Code, os hackers automatizaram os ataques contra cerca de 30 organizações ao redor do mundo, conseguindo êxito em um número limitado de casos. Jacob Klein, chefe de inteligência de ameaças da Anthropic, destacou que a execução dos ataques foi rápida, com operações realizadas “com apenas um clique”.
O impacto dessa operação sobre a cibersegurança é significativo, conforme a Anthropic, devido à capacidade do Claude em funcionar quase sem intervenção humana, executando 80% a 90% da campanha autonomamente, uma mudança drástica nas metodologias de ciberataques. Em comunicado, a companhia afirmou que a eficácia de ataques futuros com o uso dessas tecnologias tende a aumentar, levando a empresa a intensificar seus esforços em desenvolver sistemas de detecção para atividades maliciosas.
As fases do ataque foram detalhadas pela Anthropic. Na primeira fase, os operadores humanos definiram os alvos e realizaram a configuração do ataque, enquanto utilizavam técnicas de "jailbreaking" para enganar o sistema do Claude. Na sequência, a IA executou um processo de reconhecimento, inspecionando a infraestrutura das organizações-alvo. No estágio de exploração, o Claude identificou vulnerabilidades e executou milhares de solicitações por segundo, algo muito além da capacidade de hackers humanos.
A coleta de dados durante a fase de exfiltração consistiu em acessar credenciais e extrair informações valiosas, categorizando dados de acordo com sua relevância. Finalmente, os atacantes solicitaram que o Claude gerasse documentação detalhada, compilando arquivos úteis para suas operações. Embora a IA tenha se mostrado eficaz, a Anthropic apontou que o Claude apresentou limitações, ocasionalmente relatando informações incorretas ou não verificáveis.
Após detectar a atividade suspeita, a Anthropic iniciou uma investigação e suspendeu as contas associadas aos ataques, além de aprimorar seus sistemas de monitoramento. A empresa já havia reportado atividades maliciosas relacionadas ao Claude em junho de 2025, mas destacou que essa nova campanha representa uma escalada significativa em relação a ataques anteriores, onde a intervenção humana era mais pronunciada.

