
A Microsoft confirmou recentemente que a sua IA Copilot conteve um bug que colocou em causa a privacidade dos seus utilizadores. Em rigor, esta falha nos protocolos deste serviço permitia que o mesmo lesse e-mails categorizados como confidenciais.
Conforme relata a publicação Bleeping Computer, este problema foi detetado pela empresa norte-americana no final de janeiro deste ano. Felizmente, uma correção já começou a ser distribuída.
Bug no Copllot afeta os utilizadores do Microsoft 365
O problema admitido pela Microsoft impactou sobretudo os utilizadores empresariais da suite de produtividade Microsoft 365. O Copilot Chat, funcionalidade semelhante ao Gemini ou ChatGPT da Microsoft, continha uma falha que lhe permitia ler e resumir e-mails dos utilizadores.
Este bug estava a contornar os protocolos de prevenção de perdas de dados implementados para a proteção de informações sensíveis. Devido a este problema, o Copilot conseguia ler e-mails categorizados como confidenciais presentes nas pastas de Enviados e Rascunhos dos utilizadores do Outlook.
Pela descrição avançada pela Microsoft, este bug parece ter afetado sobretudo utilizadores empresariais. Se costumas usar o Copilot fora do Microsoft 365, então os teus e-mails não deverão ter sido afetados por este bug.
Categorização deste bug dá a entender que o impacto foi reduzido
A Microsoft classificou este bug no Copilot como "consultivo". Esta categoria é frequentemente usada pela empresa para descrever incidentes com alcance ou impacto limitado, o que significa que o número de utilizadores afetados será pequeno.
Ainda assim, a Microsoft revela que continua a investigar este problema: É por isso que a empresa não divulgou um número de utilizadores afetados, já que este valor pode oscilar consoante as conclusões retiradas durante o processo.
Não obstante, ela descansa os seus utilizadores afirmando que este bug não deu autorização a ninguém para ver informações que não estivessem anteriormente autorizados a ver.
