Hackers já usam IA para extorquir empresas em ataques globais, confirma relatório

A Anthropic confirmou que a sua IA foi usada em ataques de alto nível, incluindo extorsões milionárias e ransomware.

Claude hackeada

IA transformada em arma digital

Segundo um novo relatório da Anthropic, o Claude, a sua IA mais avançada, foi utilizado em ataques de cibercrime contra pelo menos 17 organizações, incluindo hospitais, serviços de emergência e até entidades governamentais.

A técnica usada pelos hackers foi apelidada de “vibe hacking”, um esquema de extorsão que tentava forçar vítimas a pagar resgates de seis dígitos para evitar a divulgação de dados pessoais roubados.

Mas sendo honestos, era só uma questão de tempo até vermos algo assim acontecer.

Como foi usado o Claude pelos criminosos

De acordo com a Anthropic, a versão Claude Code foi explorada para:

  • Automatizar reconhecimento e recolha de credenciais.

  • Infiltrar redes e identificar vulnerabilidades.

  • Decidir estrategicamente quais dados atacar.

  • Gerar notas de resgate “visualmente alarmantes” para intimidar as vítimas.

Ransomware-as-a-service criado com IA

O relatório descreve ainda a venda de ransomware gerado por IA em fóruns da dark web. Mesmo sem conhecimentos técnicos avançados, um criminoso conseguiu desenvolver e comercializar pacotes completos de malware entre 400 e 1200 dólares (368€ a 1104€), incluindo algoritmos de encriptação e técnicas de evasão.

Estes casos mostram uma mudança importante no cibercrime: a IA deixou de ser apenas uma ferramenta de apoio e passou a desempenhar papéis operacionais completos, substituindo equipas inteiras de hackers.

Agora, mesmo utilizadores com pouca experiência técnica conseguem realizar ataques complexos com ajuda da IA.

E antes que tenhas ideias, não te esqueças que em Portugal, o cibercrime pode dar de 1 a 10 anos de cadeia, dependendo do tipo de ataque e do impacto causado.

Medidas tomadas pela Anthropic após o ataque

A empresa afirma ter:

  • Partilhado informações com as autoridades competentes.

  • Banido as contas associadas aos criminosos.

  • Desenvolvido um novo sistema automático de deteção para impedir futuros abusos.

Por razões de segurança, A Anthropic não revelou detalhes técnicos sobre como funciona este sistema.

Outros casos preocupantes

O relatório também aponta dois outros casos em que o Claude esteve envolvido:

  • Fraudes de emprego ligadas à Coreia do Norte.

  • Desenvolvimento de ransomware gerado por IA.

Chegámos oficialmente ao ponto em que a IA já está a ser explorada para operações completas de cibercrime, em vez de servir apenas como “assistente”.

Não é um caso isolado

A Anthropic não é a única a lidar com este problema. A OpenAI já tinha revelado em 2024 que hackers ligados à China e Coreia do Norte estavam a usar o ChatGPT e outras ferramentas para:

  • Depurar código malicioso.

  • Pesquisar alvos.

  • Criar emails de phishing sofisticados.

Na altura, a OpenAI também bloqueou o acesso dos grupos aos seus sistemas.

Sugestão do dia:

Beats Solo 4 Wireless
171,79 €Amazon
192,12 €-11%
Logo 4gnews
Estamos a recrutar! Editor e Reviewer de Produtos Tech
Candidata-te agora
Joana Pereira
Joana Pereira
Apaixonada por marcas e tecnologia, a Joana já reconhecia logótipos antes mesmo de saber ler. Hoje, dedica-se a transformar artigos em conteúdos pensados para redes sociais, tornando a informação acessível, atrativa e adaptada a cada plataforma.
Anúncio de Fundo