IA do Snapchat pode ter risco à privacidade das crianças, segundo regulador do Reino Unido

9 de outubro de 2023
Lucas Jackson/Reuters

A Snap disse que está analisando a notificação da ICO e que está comprometida com a privacidade dos usuários

O Snapchat pode não ter avaliado adequadamente os riscos de privacidade de seu chatbot de inteligência artificial para as crianças, disse o órgão de vigilância de dados do Reino Unido na sexta-feira (6), acrescentando que irá considerar a resposta da empresa antes de tomar qualquer decisão final de aplicação.

O ICO (Gabinete do Comissário de Informação) disse que, se a empresa norte-americana não conseguir abordar adequadamente as preocupações do regulador, o “My AI”, lançado em abril, poderá ser bloqueado no Reino Unido.

“As conclusões provisórias de nossa investigação sugerem uma falha preocupante da Snap em identificar e avaliar adequadamente os riscos à privacidade de crianças e outros usuários antes de lançar o ‘My AI'”, disse o Comissário de Informações John Edwards.

As descobertas não significam necessariamente que o aplicativo de mensagens instantâneas, usado em grande parte por pessoas mais jovens, tenha violado as leis britânicas de proteção de dados ou que o ICO acabará emitindo uma notificação de execução, disse o regulador.

A Snap disse que está analisando a notificação da ICO e que está comprometida com a privacidade dos usuários.

“O ‘My AI’ passou por um processo robusto de revisão legal e de privacidade antes de ser disponibilizado publicamente”, disse um porta-voz da Snap. “Continuaremos a trabalhar de forma construtiva com a ICO para garantir que eles se sintam confortáveis com nossos procedimentos de avaliação de risco.”

O ICO está investigando como o “My AI” processa os dados pessoais dos cerca de 21 milhões de usuários do Snapchat no Reino Unido, incluindo crianças de 13 a 17 anos.

O “My AI” é alimentado pelo ChatGPT da OpenAI, o exemplo mais famoso de IA generativa, que os reguladores em todo o mundo estão procurando encontrar maneiras de regulamentar à luz das preocupações com privacidade e segurança.