O Centro Nacional de Segurança Cibernética (CNSC) britânico lançou recentemente um alerta sobre o impacto que a IA terá nos ataques de phishing e semelhantes. Recorrendo a estas tecnologias, será mais difícil detetar quando um email é fidedigno ou malicioso.
Graças à cada vez maior sofisticação destas ferramentas, este órgão acredita que, no futuro, mensagens que tentam enganar as pessoas assumirão um novo nível de credibilidade. Com efeito, os cuidados a ter para evitar cair nestes esquemas fraudulentos terão de ser necessariamente redobrados.
Agência britânica acredita que este tipo de ataques irá crescer nos próximos dois anos
O Centro Nacional de Segurança Cibernética britânico afirma que será "quase certo" assistirmos a um aumento de ataques de phishing no decurso dos próximos dois anos. Pior que isso, é esperado que o seu nível de sofisticação cresça substancialmente.
"Até 2025, a IA generativa e os grandes modelos de linguagem tornarão difícil para todos, independentemente do seu nível de compreensão da segurança cibernética, avaliar se um pedido de redefinição de email ou palavra-passe é genuíno, ou identificar tentativas de phishing, spoofing ou engenharia social."
Isto deve-se ao facto de ferramentas de IA generativa estarem acessíveis a qualquer utilizador. Note-se, por exemplo, o ChatGPT, um dos mais populares do segmento, que qualquer um pode usar livremente para os propósitos que bem entender.
O CNSC nota que a IA generativa já consegue produzir "documentos de isco" para atrair vítimas. Estes apresentam-se sem erros de tradução, ortografia ou gramática que, até agora, era um dos métodos de deteção de emails fraudulentos.
IA transformará qualquer pessoa num potencial cibercriminoso
Além de uma ferramenta para a geração de texto ou imagens, a IA generativa revelou-se um competente programador. Nesse sentido, estas ferramentas poderão ajudar os menos experientes nas andanças do hacking a criar os seus próprios esquemas fraudulentos.
Devido à sua facilidade de acesso, até os menos experientes podem conseguir acesso a sistemas externos e recolher informações confidenciais. Este é um cenário que preocupa aqueles que se dedicam à erradicação destes fenómenos ilícitos.
O centro britânico aponta ainda no sentido inverso. Ou seja, ele defende que os mecanismos de IA também podem ser usados para a prevenção de ataques informáticos e para a conceção de sistemas mais seguros.