Apple procurará fotos de nudez e abuso sexual nos iPhone com iOS 15

Rui Bacelar
Comentar

A medida visa combater a exploração infantil e já foi confirmada pela Apple. Integrará os telefones iPhone assim que chegar o iOS 15, bem como o iPadOS 15, watchOS 8 e o macOS Monterey. A medida é controversa ao colocar em questão a privacidade do utilizador.

Importa frisar que a tecnológica de Cupertino fará um scan das fotografias do utilizador em busca de provas de abuso / exploração infantil consubstanciada no envio de fotografias e / ou vídeos de nudez que possam pôr em risco a criança.

A Apple já confirmou a introdução desta medida nos iPhone com o iOS 15

Apple iPhone iOS 15
Exemplificação do aviso a ser apresentado ao utilizador do iPhone. Crédito: Apple

Caso o algoritmo detete estas instâncias, surgirá um aviso não só para o utilizador (criança), mas também para os pais da mesma. Além disso, caso assim o decida, o algoritmo da Apple pode enviar essa fotografia para um supervisor humano.

Tal prática, ainda que justificada com o maior interesse e bem-estar da criança, levantou rapidamente várias preocupações perante a possibilidade de termos colaboradores da Apple a monitorizar, ainda que acidentalmente, fotografias legais / normais de crianças.

Entretanto, a Apple já veio a público confirmar a integração e adoção desta função. Fê-lo através de uma publicação intitulada de "Expanded protections for childrens". São as suas novas proteções avançadas para crianças, a chegar com o iOS 15.

O escrutínio já levantou vozes consternadas com os ricos para a privacidade

I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.

— Matthew Green (@matthew_d_green) 4 de agosto de 2021

Os planos da Apple apresentados nesta sexta-feira (6) contemplam a vigilância das fotografias armazenadas na iCloud. A medida que visa proteger as crianças e mitigar o potencial de abusos e exploração sexual será visível nos iPhone com iOS 15 e nos iPad.

Por outro lado, importa notar que este scan, a verificação das fotografias será feita apenas no iPhone, será um escrutínio local. No entanto, se o sofware encontrar alguma imagem problemática, ou considere perigosa de acordo com os seus critérios, submeterá a mesma para a Apple.

Por sua vez, a Apple desencriptará a imagem e analisará a mesma. Em seguida, caso os colaboradores da Apple encarregues desta revisão encontrem provas da ilegalidade das imagens, contactarão as forças de autoridade. É esta revisão humana que suscita preocupações com a privacidade do utilizador e respetivos conteúdos.

Isto porque existe a hipótese, real, de o algoritmo de deteção automática falhar em alguns casos. Isto acabaria por colocar um colaborador humano a analisar as fotografias legítimas do respetivo utilizador de iPhone e / ou iPad.

Apple afirma que a chance de falsos positivos é ínfima

A Apple foi rápida a fornecer uma garantia de confiança e fiabilidade do sistema / algoritmo de deteção. Nas suas palavras, existe uma chance num trilhão de ocorrer um falso positivo. Não obstante, a hipótese de outro ser humano analisas as nossas fotografias será real.

This sort of tool can be a boon for finding child pornography in people’s phones. But imagine what it could do in the hands of an authoritarian government? https://t.co/nB8S6hmLE3

— Matthew Green (@matthew_d_green) 5 de agosto de 2021

Note-se que este escrutínio local das imagens ocorrerá apenas nas fotografias armazenadas na Fotos da iCloud. Entretanto, contamos com mais detalhes a serem publicados pela Apple sobre este sistema de deteção e alerta automático.

Ainda que o seu intuito seja nobre, a exequibilidade e fiabilidade do sistema levanta novas questões. Ao envolver o elemento humano na segunda análise às imagens surge aqui um elemento de suspeita.

De igual modo, o que impedirá a Apple de, por exemplo, colaborar com instâncias governamentais e colocar este algoritmo ao serviço de um outro propósito menos nobre? O que hoje está treinado para reconhecer nudez infantil, pode ser adaptado para outros fins.

Queremos mesmo abrir este precedente? Para a Apple, a decisão está tomada, o interesse da criança sobrepõe-se ao risco de 1 em um trilhão.

Editores 4gnews recomendam:

Rui Bacelar
Rui Bacelar
Na escrita e comunicação repousa o gosto, nas leis a formação. É na tecnologia que encontrou o seu expoente máximo e na 4gnews a plataforma ideal para a redação e produção de vídeo.