Dois dias após uma carta aberta assinada por mais de 2,8 mil pessoas, entre empresários como Elon Musk, o Google e historiadores como Yuval Harari pedirem uma pausa nas pesquisas e desenvolvimento de IA, o governo da Itália proibiu o uso do ChatGPT, sistema conversacional da OpenAI alegando não cumprimento da Lei de Privacidade local. Órgãos e autoridades legais deram início a uma série de investigações. O fato inicia uma nova fase das discussões sobre uso de inteligência artificial e, segundo especialistas, acende novos alertas sobre o uso do ChatGPT.
Rodrigo Helcer, especialista em IA e fundador da Stilingue, explica que o fato ocorrido na Itália, apesar de emblemático, não vai ao X da questão. “Bloquear um player ou uma ferramenta não resolve a questão regulatória importante para toda a categoria. A OpenAI é a rainha do jogo da IA neste momento, mas não é onde está o maior risco. Os maiores riscos estão no uso de modelos de linguagens desenvolvidos sem o investimento intensivo que o OpenAI vem fazendo, e são inúmeros os exemplos.”
“Acredito que algumas adequações legais deverão ser feitas pela OpenAI e pelas empresas que forem usar a solução do ChatGPT ou quaisquer outras soluções de inteligência artificial com esse mesmo grau de impacto, para garantir um real alinhamento com as necessidades regulatórias e legais de diversos países. Esse é um movimento de ajuste que acredito que também irá ser superado, para que as soluções possam ser usadas de forma madura e mais “responsável” pelas pessoas e organizações no futuro”, explica Fernando Moulin, Partner da Sponsorb, professor e especialista em negócios, transformação digital e experiência do cliente.
Leia mais: O que levou a Itália a proibir o ChatGPT?
“A determinação de bloqueio é sempre uma medida extremamente drástica e indigesta, que impacta inúmeros usuários e serviços decorrentes do uso dessa aplicação”, alerta Luis Fernando Prado, sócio da área de Direito Digital do escritório Prado Vidigal Advogados. Para Matheus Puppe, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados, “a IA já vem apresentando parte de seus muitos desafios. Proteção de dados é apenas uma das dificuldades regulatórias que ela já causa. O passo, entretanto, da Itália, vejo como precipitado, uma vez que a IA ainda carece que ajustes e isto pode frear o desenvolvimento de uma ferramenta temida, mas poderosa no bom sentido.”
A carta de Elon Musk & CIA
Em relação à carta de Elon Musk & Cia, Helcer reforça que ela expressa uma maturidade na relação da sociedade com a tecnologia para que os mesmos erros anteriores da internet não sejam cometidos. “Não podemos ignorar tudo que já ocorreu com relação a dados e privacidade. Essa carta representa sim uma chamada por sensibilidade. Mas é problemático colocarmos as pessoas que a assinam contra a OpenAI, como se fosse um contraponto, já que a própria empresa, por meio de seus três fundadores, vem fazendo essa alerta desde o início da intensificação dos testes de IA.”
Leia mais: O que diz a carta assinada por Musk e milhares contra experimentos de IA?
“Poucos dias depois da carta assinada pelos principais profissionais do mundo, como Elon Musk e Steve Wozniak, a Itália deu um passo à frente e proibiu totalmente o uso do ChatGPT devido a preocupações com as regras de coleta de dados. Não só isso, mas também acusa a Microsoft de não impor limitação de idade às regras do chat. Esses dois eventos se conectam à mesma fonte. Embora a petição seja mais generalizada, já vemos que essa engrenagem, de forma massiva, hoje está tendo problemas para cumprir as regras. As preocupações vêm do fato de que, se já estamos tendo problemas para cumprir as regras, o que o futuro reserva?”, pondera Gaby Diamant, CEO da BridgeWise.