Apple abandona controversa funcionalidade de combate à pornografia infantil

Carlos Oliveira
Carlos Oliveira
Tempo de leitura: 2 min.

Conhecida como CSAM, esta foi uma das funcionalidades anunciadas pela Apple em finais de 2021 para combater a propagação de pornografia infantil. No entanto, a abordagem da norte-americana levantou sérias preocupações que ditam agora ao seu abandono.

A novidade foi dada por um representante da Apple à publicação WIRED. Após vários meses a tentar desenvolver a melhor ferramenta possível, a tecnológica acabou por desistir desta medida preventiva.

Apple abandona controversa funcionalidade CSAM

"Após extensa consulta com especialistas para recolher feedback sobre as iniciativas de proteção infantil que propusemos no ano passado, aprofundamos o nosso investimento no recurso de segurança de comunicação que disponibilizamos pela primeira vez em dezembro de 2021. Decidimos não avançar com a nossa ferramenta de deteção CSAM proposta anteriormente para a iCloud Photos. As crianças podem ser protegidas sem que as empresas vasculhem dados pessoais, e continuaremos a trabalhar com governos, defensores das crianças e outras empresas para ajudar a proteger os jovens, preservar o seu direito à privacidade e tornar a Internet um lugar mais seguro para as crianças e para todos nós."

Apple

Estas foram as declarações prestadas pela empresa norte-americana a dar conta do fim do desenvolvimento desta controversa ferramenta. A proteção dos menores não deixará de ser uma prioridade para a empresa, porém, terá de ser acautelada com uma abordagem diferente.

Recordo que a CSAM consistia numa ferramenta de deteção automática de conteúdo relacionado com abuso sexual de menores. Ela iria vasculhar as fotografias dos utilizadores presentes na iCloud em busca de material ilegal.

Os resultados seriam cruzados com uma base de dados pré-definida. Caso fosse detetado algum caso positivo, a imagem seria automaticamente desfocada para evitar a propagação desse conteúdo.

Ademais, uma pessoa dentro da Apple deveria fazer uma verificação manual à fotografia sinalizada. Caso se verificasse a presença de conteúdo ilícito e relacionado com abuso de menores, as autoridades competentes seriam posteriormente notificadas.

Pese embora a boa intenção da Apple com esta ferramenta, a sua operacionalidade levantou sérios receios sobre a privacidade dos utilizadores. Esta procura automática foi vista como um inequívoco ataque à privacidade dos utilizadores, abrindo uma backdoor em todos os dispositivos.

Após os vários avanços e recuos desta ferramenta, a Apple decide agora colocar termo ao seu desenvolvimento. Em contrapartida, a empresa anunciou a disponibilização de encriptação de ponta a ponta para todo o conteúdo presente na iCloud.

Editores 4gnews recomendam:

Carlos Oliveira
Carlos Oliveira
No 4gnews desde 2015, escreve e acompanha as últimas tendências, sobretudo smartphones, para que os leitores estejam sempre bem informados.