No editorial publicado pelo “The Washington Post”, uma dupla de pesquisadores que passaram dois anos desenvolvendo um sistema de detecção de CSAM semelhante ao que a Apple planeja instalar em iPhones, iPads e Macs no próximo mês, entregou um aviso inequívoco: o sistema é perigoso.
Siga todas as novidades da Forbes Insider no Telegram
Segundo Lovejoy, a Apple silenciosamente admitiu essas informações em uma versão, agora arquivada, de sua página de segurança infantil. Em uma entrevista de 2020 ao jornal britânico “The Telegraph”, a CPO Jane Horvath reconheceu que “a empresa usa tecnologia de triagem para procurar as imagens ilegais”. Embora o jornal reconheça que a Apple “não especifica como o sistema descobre os materiais proibidos”, essas revelações tornam a situação ainda pior. O retrocesso contra essas medidas – embora bem intencionadas – deve aumentar significativamente nos próximos dias e semanas.
“Nós escrevemos a única publicação revisada sobre como construir um sistema semelhante ao da Apple – e concluímos que a tecnologia era perigosa”, afirmam Jonathan Mayer e Anunay Kulshrestha, os dois acadêmicos de Princeton por trás da pesquisa. “O nosso sistema poderia ser facilmente reaproveitado para vigilância e censura. O design não estava restrito a uma categoria específica de conteúdo; um serviço poderia simplesmente trocar qualquer banco de dados de correspondência de conteúdo, e o usuário não saberia.”
Este tem sido o medo predominante em relação à iniciativa CSAM da Apple. O objetivo da tecnologia para reduzir o abuso infantil é indiscutivelmente importante, mas o dano potencial que pode vir de hackers e governos manipulando um sistema projetado para analisar suas fotos do iCloud e relatar conteúdos abusivos é claro para todos.
Os críticos têm munição de sobra. No início deste ano, a multinacional foi acusada de comprometer a censura e vigilância na China após aceitar mover os dados pessoais de seus clientes para os servidores de uma empresa estatal do país. A Apple também diz que forneceu dados de seus clientes ao governo dos EUA quase 4.000 vezes no ano passado.
LEIA MAIS: Apple vai vasculhar fotos de usuários do iCloud
“Identificamos outras deficiências no sistema. O processo de verificação dos conteúdos pode ter falsos positivos, e usuários mal-intencionados podem manipular a tecnologia para prejudicar usuários inocentes”, alertam Mayer e Kulshrestha.
Antes de Mayer e Kulshrestha se manifestarem, mais de 90 grupos de direitos civis em todo o mundo já haviam escrito uma carta à Apple alegando que a tecnologia por trás do CSAM “poderá lançar as bases para censura, vigilância e perseguição em uma base global”.
Posteriormente, a companhia defendeu o seu sistema CSAM, alegando que as especificações da tecnologia estavam sendo mal comunicadas, mas suas declarações não impressionaram Mayer e Kulshrestha.
“A motivação da Apple, assim como a nossa, era proteger as crianças. E seu sistema era tecnicamente mais eficiente e capaz do que o nosso”, disseram. “Mas ficamos perplexos ao ver que a empresa tinha poucas respostas para as perguntas difíceis que tínhamos levantado.”
O CSAM será lançado no iOS 15, iPadOS 15, watchOS 8 e macOS Monterey no próximo mês. Eu suspeito que para muitos fãs da Apple, isso marcará o momento de ir embora.
Facebook
Twitter
Instagram
YouTube
LinkedIn
Baixe o app da Forbes Brasil na Play Store e na App Store.
Tenha também a Forbes no Google Notícias.