A medida visa combater a exploração infantil e já foi confirmada pela Apple. Integrará os telefones iPhone assim que chegar o iOS 15, bem como o iPadOS 15, watchOS 8 e o macOS Monterey. A medida é controversa ao colocar em questão a privacidade do utilizador.
Importa frisar que a tecnológica de Cupertino fará um scan das fotografias do utilizador em busca de provas de abuso / exploração infantil consubstanciada no envio de fotografias e / ou vídeos de nudez que possam pôr em risco a criança.
A Apple já confirmou a introdução desta medida nos iPhone com o iOS 15
Caso o algoritmo detete estas instâncias, surgirá um aviso não só para o utilizador (criança), mas também para os pais da mesma. Além disso, caso assim o decida, o algoritmo da Apple pode enviar essa fotografia para um supervisor humano.
Tal prática, ainda que justificada com o maior interesse e bem-estar da criança, levantou rapidamente várias preocupações perante a possibilidade de termos colaboradores da Apple a monitorizar, ainda que acidentalmente, fotografias legais / normais de crianças.
Entretanto, a Apple já veio a público confirmar a integração e adoção desta função. Fê-lo através de uma publicação intitulada de "Expanded protections for childrens". São as suas novas proteções avançadas para crianças, a chegar com o iOS 15.
O escrutínio já levantou vozes consternadas com os ricos para a privacidade
Os planos da Apple apresentados nesta sexta-feira (6) contemplam a vigilância das fotografias armazenadas na iCloud. A medida que visa proteger as crianças e mitigar o potencial de abusos e exploração sexual será visível nos iPhone com iOS 15 e nos iPad.
Por outro lado, importa notar que este scan, a verificação das fotografias será feita apenas no iPhone, será um escrutínio local. No entanto, se o sofware encontrar alguma imagem problemática, ou considere perigosa de acordo com os seus critérios, submeterá a mesma para a Apple.
Por sua vez, a Apple desencriptará a imagem e analisará a mesma. Em seguida, caso os colaboradores da Apple encarregues desta revisão encontrem provas da ilegalidade das imagens, contactarão as forças de autoridade. É esta revisão humana que suscita preocupações com a privacidade do utilizador e respetivos conteúdos.
Isto porque existe a hipótese, real, de o algoritmo de deteção automática falhar em alguns casos. Isto acabaria por colocar um colaborador humano a analisar as fotografias legítimas do respetivo utilizador de iPhone e / ou iPad.
Apple afirma que a chance de falsos positivos é ínfima
A Apple foi rápida a fornecer uma garantia de confiança e fiabilidade do sistema / algoritmo de deteção. Nas suas palavras, existe uma chance num trilhão de ocorrer um falso positivo. Não obstante, a hipótese de outro ser humano analisas as nossas fotografias será real.
Note-se que este escrutínio local das imagens ocorrerá apenas nas fotografias armazenadas na Fotos da iCloud. Entretanto, contamos com mais detalhes a serem publicados pela Apple sobre este sistema de deteção e alerta automático.
Ainda que o seu intuito seja nobre, a exequibilidade e fiabilidade do sistema levanta novas questões. Ao envolver o elemento humano na segunda análise às imagens surge aqui um elemento de suspeita.
De igual modo, o que impedirá a Apple de, por exemplo, colaborar com instâncias governamentais e colocar este algoritmo ao serviço de um outro propósito menos nobre? O que hoje está treinado para reconhecer nudez infantil, pode ser adaptado para outros fins.
Queremos mesmo abrir este precedente? Para a Apple, a decisão está tomada, o interesse da criança sobrepõe-se ao risco de 1 em um trilhão.
Editores 4gnews recomendam:
- Xiaomi ultrapassa Apple e Samsung tornando-se na maior fabricante mundial de smartphones, diz a Counterpoint
- OPPO: este é o novo smartphone com câmara embutida no ecrã [vídeo]
- Xiaomi tem novo produto high-end a chegar com o smartphone Mi MIX 4