O que levou a Itália a proibir o ChatGPT?

31 de março de 2023
Getty Images

O ChatGPT foi lançado em novembro de 2022 pela empresa OpenAI

De acordo com o regulador que garante a proteção de dados dos italianos, o ChatGPT aparenta ser um grande risco para a privacidade dos usuários, podendo até mesmo divulgar informações pessoais em relação a pagamentos na internet. O GDPR, que representa a principal Lei de Dados e Privacidade da Europa,  define a maneira como usar, processar e armazenar os dados pessoais e afirma que, além de bloquear o chatbot, irá investigar se o software cumpre o Regulamento Geral de Proteção de Dados.

LEIA MAIS: Por dentro dos bastidores bilionários do ChatGPT

A proibição ocorreu por conta de dois fatores: o ChatGPT não tem autorização para a coleta de dados pessoais dos usuários, mesmo que seja somente para aprimorar o chatbot; e pela exposição de usuários menores de idade, já que o software não possui métodos de verificação de idade. Com isso, a autoridade italiana estabeleceu um prazo de 20 dias para a OpenAI definir como irá resolver essas questões, sob pena de multa de € 20 milhões (US$ 21,7 milhões – R$ 110,12 milhões) ou até 4% das receitas anuais.

A investigação italiana acendeu um alerta para os outros órgãos reguladores de proteção de dados da União Europeia. O grupo de defesa do consumidor BEUC também pediu às autoridades nacionais e da UE que realizem investigações sobre o ChatGPT e chatbots semelhantes, após a apresentação de uma reclamação nos EUA. De acordo com o provedor de classificações de segurança cibernética Security  Scorecard, Dan Morgan, a proibição mostra a importância da conformidade regulatória para empresas que operam na Europa.

LEIA MAIS: O que diz a carta assinada por Musk e milhares contra experimentos de IA?

Carta aberta contra a IA

Esta semana repercutiu na internet a notícia de que mais de 1300 cientistas, empresários de tecnologia e representantes do meio acadêmico assinaram uma carta aberta com o título “pause experimentos de IA: carta aberta”, pedindo que os experimentos com IA sejam pausados por determinado período. O documento inclui nomes importantes do Vale do Silício como Elon Musk, Steve Wozniak, instituições de Oxford, Cambridge, Stanford, Columbia, além de empresas como Google, Microsoft, Amazon e até o historiador Yuval Noah Harari. Em um dos trechos da carta eles afirmam que a IA compete com a inteligência humana podendo até oferecer riscos maiores à humanidade e de acordo com laboratórios especializados, a IA não está cumprindo com os cuidados e recursos necessários.