A Microsoft acaba de atualizar o "Cyber Signals", a sexta edição do seu relatório de cibersegurança. Este documento fala sobre a crescente utilização da Inteligência Artificial (IA) generativa por cibercriminosos para fins maliciosos. Destaca como a própria Microsoft está a usar esta tecnologia para reforçar as suas defesas e desenvolver novas formas de proteção contra as ameaças digitais.
Todos os dias, a Microsoft realiza mais de 2,5 mil milhões de deteções baseadas na cloud e orientadas por IA. A ideia é salvaguardar os seus clientes de potenciais ameaças. Este relatório vem confirmar que as ferramentas tradicionais de proteção estão a tornar-se obsoletas face ao avanço e à sofisticação dos ataques cibernéticos.
A IA tem o potencial para impulsionar a inovação e a eficiência na deteção e resposta a ameaças. No entanto, como é sabido, também pode ser usada pelos adversários para aprimorar os seus ataques.
Em colaboração com a OpenAI, a Microsoft revelou ter identificado e interrompido tentativas de adversários de várias nacionalidades. Desde russos, norte-coreanos, iranianos e chineses, que procuravam utilizar grandes modelos de linguagem (LLM), como o ChatGPT, para otimizar as suas estratégias de ciberataque.
Microsoft implementa modelos Zero Trust
O relatório realça como a Microsoft está a combater esta tendência, com o bloqueio da atividade maliciosa para proteger as plataformas de IA e os utilizadores. A empresa adotou várias estratégias, desde a deteção de ameaças com IA, análise comportamental para identificar ações suspeitas, modelos de machine learning (ML) para detetar acessos de risco e malware, até à implementação de modelos Zero Trust. Aí, cada pedido de acesso é rigorosamente autenticado e encriptado.
Além disso, a adoção da IA nas práticas de cibersegurança já demonstrou benefícios significativos. Um estudo recente do Microsoft Copilot Security revelou um aumento na velocidade (26%) e precisão (44%) dos analistas de segurança em tarefas comuns, com 90% dos participantes a expressarem o desejo de utilizar novamente esta ferramenta.
Face à natureza ambivalente da IA, que traz tanto novas capacidades como novos riscos, a Microsoft partilha várias recomendações. Entre elas, a implementação de políticas de acesso condicional, a formação dos colaboradores sobre táticas de engenharia social e a adoção da autenticação de dois fatores. Isto é especialmente importante para funções de administrador, de forma a reduzir significativamente o risco de comprometimento de contas.