Os usuários do iPhone já toleraram muitas coisas nos últimos meses. Mas o novo sistema de detecção de CSAM (conteúdos relacionados ao abuso sexual infantil) da Apple atrai tantas controvérsias que se destaca de todo o resto. E se você já estava pensando em abrir mão do seu iPhone, um novo relatório chocante pode simplesmente convencê-lo de uma vez por todas.
No editorial publicado pelo “The Washington Post”, uma dupla de pesquisadores que passaram dois anos desenvolvendo um sistema de detecção de CSAM semelhante ao que a Apple planeja instalar em iPhones, iPads e Macs no próximo mês, entregou um aviso inequívoco: o sistema é perigoso.
Siga todas as novidades da Forbes Insider no Telegram
Ontem (23), esta história sofreu uma reviravolta, após a gigante de tecnologia admitir que o sistema já estava sendo executado há três anos no iCloud Mail. “A Apple me confirmou que desde 2019 verifica os conteúdos do iCloud Mail em busca de anexos CSAM. Como o e-mail não é criptografado, analisar os conteúdos que passam pelos servidores da Apple seria uma tarefa trivial”, relata o redator do “9to5Mac”, Ben Lovejoy. “A empresa também indicou que estava fazendo uma varredura limitada de outros dados, mas não me disse o que era, exceto para sugerir que a ação ocorria em uma escala minúscula.”
Segundo Lovejoy, a Apple silenciosamente admitiu essas informações em uma versão, agora arquivada, de sua página de segurança infantil. Em uma entrevista de 2020 ao jornal britânico “The Telegraph”, a CPO Jane Horvath reconheceu que “a empresa usa tecnologia de triagem para procurar as imagens ilegais”. Embora o jornal reconheça que a Apple “não especifica como o sistema descobre os materiais proibidos”, essas revelações tornam a situação ainda pior. O retrocesso contra essas medidas – embora bem intencionadas – deve aumentar significativamente nos próximos dias e semanas.
“Nós escrevemos a única publicação revisada sobre como construir um sistema semelhante ao da Apple – e concluímos que a tecnologia era perigosa”, afirmam Jonathan Mayer e Anunay Kulshrestha, os dois acadêmicos de Princeton por trás da pesquisa. “O nosso sistema poderia ser facilmente reaproveitado para vigilância e censura. O design não estava restrito a uma categoria específica de conteúdo; um serviço poderia simplesmente trocar qualquer banco de dados de correspondência de conteúdo, e o usuário não saberia.”
Este tem sido o medo predominante em relação à iniciativa CSAM da Apple. O objetivo da tecnologia para reduzir o abuso infantil é indiscutivelmente importante, mas o dano potencial que pode vir de hackers e governos manipulando um sistema projetado para analisar suas fotos do iCloud e relatar conteúdos abusivos é claro para todos.
“A China é o segundo maior mercado da Apple, com provavelmente centenas de milhões de dispositivos. O que impede o governo chinês de exigir que a Apple escaneie esses aparelhos em busca de materiais pró-democracia?”, questionam os pesquisadores.
Os críticos têm munição de sobra. No início deste ano, a multinacional foi acusada de comprometer a censura e vigilância na China após aceitar mover os dados pessoais de seus clientes para os servidores de uma empresa estatal do país. A Apple também diz que forneceu dados de seus clientes ao governo dos EUA quase 4.000 vezes no ano passado.
LEIA MAIS: Apple vai vasculhar fotos de usuários do iCloud
“Identificamos outras deficiências no sistema. O processo de verificação dos conteúdos pode ter falsos positivos, e usuários mal-intencionados podem manipular a tecnologia para prejudicar usuários inocentes”, alertam Mayer e Kulshrestha.
A história mais recente não parece ser boa. No mês passado, revelações sobre o projeto Pegasus expuseram uma empresa global que havia hackeado iPhones com sucesso durante anos e vendido sua tecnologia a governos estrangeiros para vigilância de ativistas anti-regime, jornalistas e líderes políticos de nações rivais. Com acesso à tecnologia da Apple projetada para digitalizar e sinalizar as fotos iCloud de um bilhão de proprietários de iPhone, esse conflito poderia se expandir ainda mais.
Antes de Mayer e Kulshrestha se manifestarem, mais de 90 grupos de direitos civis em todo o mundo já haviam escrito uma carta à Apple alegando que a tecnologia por trás do CSAM “poderá lançar as bases para censura, vigilância e perseguição em uma base global”.
Posteriormente, a companhia defendeu o seu sistema CSAM, alegando que as especificações da tecnologia estavam sendo mal comunicadas, mas suas declarações não impressionaram Mayer e Kulshrestha.
“A motivação da Apple, assim como a nossa, era proteger as crianças. E seu sistema era tecnicamente mais eficiente e capaz do que o nosso”, disseram. “Mas ficamos perplexos ao ver que a empresa tinha poucas respostas para as perguntas difíceis que tínhamos levantado.”
Agora, a Apple está no meio de uma confusão criada por ela mesma. Durante anos, a companhia dedicou um esforço considerável ao marketing como uma empresa líder em privacidade do usuário. A página oficial de segurança da empresa declara que “a privacidade é um direito humano fundamental. Na Apple, é também um dos nossos principais valores. Seus dispositivos são importantes em muitas partes da sua vida. O que você compartilha dessas experiências, e com quem você compartilha, deve ser uma escolha sua. Nós projetamos os produtos Apple para proteger sua privacidade e dar a você o controle sobre suas informações. Nem sempre é fácil. Mas esse é o tipo de inovação em que acreditamos.”
O CSAM será lançado no iOS 15, iPadOS 15, watchOS 8 e macOS Monterey no próximo mês. Eu suspeito que para muitos fãs da Apple, isso marcará o momento de ir embora.
Facebook
Twitter
Instagram
YouTube
LinkedIn
Siga Forbes Money no Telegram e tenha acesso a notícias do mercado financeiro em primeira mão
Baixe o app da Forbes Brasil na Play Store e na App Store.
Tenha também a Forbes no Google Notícias.