IA transformada em arma digital
Segundo um novo relatório da Anthropic, o Claude, a sua IA mais avançada, foi utilizado em ataques de cibercrime contra pelo menos 17 organizações, incluindo hospitais, serviços de emergência e até entidades governamentais.
A técnica usada pelos hackers foi apelidada de “vibe hacking”, um esquema de extorsão que tentava forçar vítimas a pagar resgates de seis dígitos para evitar a divulgação de dados pessoais roubados.
Mas sendo honestos, era só uma questão de tempo até vermos algo assim acontecer.
Como foi usado o Claude pelos criminosos
De acordo com a Anthropic, a versão Claude Code foi explorada para:
-
Automatizar reconhecimento e recolha de credenciais.
-
Infiltrar redes e identificar vulnerabilidades.
-
Decidir estrategicamente quais dados atacar.
-
Gerar notas de resgate “visualmente alarmantes” para intimidar as vítimas.
Ransomware-as-a-service criado com IA
O relatório descreve ainda a venda de ransomware gerado por IA em fóruns da dark web. Mesmo sem conhecimentos técnicos avançados, um criminoso conseguiu desenvolver e comercializar pacotes completos de malware entre 400 e 1200 dólares (368€ a 1104€), incluindo algoritmos de encriptação e técnicas de evasão.
Estes casos mostram uma mudança importante no cibercrime: a IA deixou de ser apenas uma ferramenta de apoio e passou a desempenhar papéis operacionais completos, substituindo equipas inteiras de hackers.
Agora, mesmo utilizadores com pouca experiência técnica conseguem realizar ataques complexos com ajuda da IA.
E antes que tenhas ideias, não te esqueças que em Portugal, o cibercrime pode dar de 1 a 10 anos de cadeia, dependendo do tipo de ataque e do impacto causado.
Medidas tomadas pela Anthropic após o ataque
A empresa afirma ter:
-
Partilhado informações com as autoridades competentes.
-
Banido as contas associadas aos criminosos.
-
Desenvolvido um novo sistema automático de deteção para impedir futuros abusos.
Por razões de segurança, A Anthropic não revelou detalhes técnicos sobre como funciona este sistema.
Outros casos preocupantes
O relatório também aponta dois outros casos em que o Claude esteve envolvido:
-
Fraudes de emprego ligadas à Coreia do Norte.
-
Desenvolvimento de ransomware gerado por IA.
Chegámos oficialmente ao ponto em que a IA já está a ser explorada para operações completas de cibercrime, em vez de servir apenas como “assistente”.
Não é um caso isolado
A Anthropic não é a única a lidar com este problema. A OpenAI já tinha revelado em 2024 que hackers ligados à China e Coreia do Norte estavam a usar o ChatGPT e outras ferramentas para:
-
Depurar código malicioso.
-
Pesquisar alvos.
-
Criar emails de phishing sofisticados.
Na altura, a OpenAI também bloqueou o acesso dos grupos aos seus sistemas.