Se imagens de abuso infantil forem detectadas no envio ao serviço, a Apple iniciará uma revisão humana e denunciar o usuário a autoridades, afirmou a empresa. A Apple afirmou que o sistema é projetado para reduzir falsos positivos para um caso a cada trilhão.
Siga todas as novidades do Forbes Tech no Telegram
O sistema da Apple usa banco de dados mantido por autoridades de imagens de abuso infantil conhecidas e as traduz para hashes, códigos numéricos que correspondem à cada imagem, mas que não pode ser usado para reconstruí-la.
A companhia fez sua própria implementação do sistema, projetada para detectar imagens editadas, mas similares às imagens originais no banco de dados.
Quando o usuário envia uma imagem ao iCloud, o iPhone cria uma hash da imagem e a compara com o banco de dados. As imagens armazenadas no aparelho não são analisadas, disse a Apple.
LEIA MAIS: Apple trabalha com fornecedores chineses para iPhones mais recentes
No Twitter, defensores da privacidade e especialistas em segurança afirmaram que o sistema poderá ser eventualmente expandido para bisbilhotar aparelhos em busca de conteúdo genérico considerado como ilegal ou que tenha conteúdo político.
“Independente deles [Apple] estarem certos ou errados, este sistema abre a porteira para que governos exijam a instalação dele para todos”, disse Matthew Green, pesquisador de segurança da Universidade Johns Hopkins. (Com Reuters)
Facebook
Twitter
Instagram
YouTube
LinkedIn
Siga Forbes Money no Telegram e tenha acesso a notícias do mercado financeiro em primeira mão
Baixe o app da Forbes Brasil na Play Store e na App Store.