A OpenAI, dona do ChatGPT, vem sendo processada em várias esferas por violação de direitos autorais. O caso mais recente e que ganhou visibilidade foi o de um grupo de veículos de mídia criado para contestar judicialmente a empresa por roubo de propriedade intelectual.
O consórcio, que inclui a Associated Press, alega que a empresa fundada por Sam Altman viola direitos autorais ao utilizar conteúdos protegidos para treinar seus modelos de inteligência artificial generativa. As companhias também alegam que suas reportagens e publicações foram usadas sem autorização, o que teria gerado prejuízos financeiros. Em junho deste ano, a empresa foi acusada pela atriz Scarlett Johansson de ter utilizado sua voz sem autorização em uma de suas IAs, a Sky. Na ocasião, a empresa retirou a voz depois do pronunciamento de Scarlett.
Leia também
Segundo as empresas, o laboratório de IA usou uma ampla base de dados contendo artigos e materiais jornalísticos protegidos por copyright para aprimorar as capacidades de seu famoso sistema de inteligência artificial. A OpenAI ainda não se pronunciou oficialmente e nem ao ser questionada sobre o caso. Em sua página, na parte de termos de uso, a empresa destaca o uso que dá às informações inseridas em suas plataformas. “Podemos usar o seu conteúdo para fornecer, manter, desenvolver e melhorar nossos serviços, cumprir com a legislação aplicável, com os nossos termos e políticas e manter nossos serviços seguros.”
Bruno Nunes, especialista em tecnologia e CEO da Base39, explica que a adoção massiva de IA generativa deve ser vista com cautela e com uma abordagem ética sólida. “Não basta injetar bilhões em uma tecnologia promissora sem considerar suas ramificações na sociedade. O futuro da inteligência artificial é brilhante, mas também deve ser justo e inclusivo para todos”.
Nunes explica, à Forbes Brasil, como deve-se agir em casos como este. “A iniciativa judicial contra a dona do ChatGTP reflete a preocupação crescente com os impactos dessas tecnologias na produção e no consumo de conteúdo, e pode ser apenas o início de uma série de ações legais semelhantes ao redor do mundo.”
Forbes Brasil – Como identificar o roubo de propriedade intelectual?
Bruno Nunes – Identificar o uso de dados protegidos é extremamente difícil porque, muitas vezes, os conteúdos utilizados pelas empresas de IA estão disponíveis publicamente em sites. Essas empresas usam bots que funcionam de maneira semelhante aos indexadores de pesquisa, como o Google, para coletar dados. Isso complica muito a tarefa de restringir o acesso de bots específicos, porque bloquear todos os bots pode acabar afetando a visibilidade do seu site em buscadores e, consequentemente, impactar vendas ou acessos.
FB – Diante desta dificuldade, como se proteger?
Nunes – Uma forma de tentar se proteger é usar serviços como o Cloudflare, que permitem restringir o acesso de determinados bots ou visitantes. Mas é um equilíbrio delicado: você precisa proteger seus dados sem prejudicar sua presença online. Além disso, identificar exatamente qual conteúdo foi usado por modelos de IA é desafiador, já que o processo de treinamento desses modelos não é transparente e, na maioria dos casos, as empresas não divulgam as fontes utilizadas.
FB – A própria IA pode ajudar nesse sentido?
Nunes – Mesmo com as ferramentas, a detecção de uso indevido é limitada. A IA generativa pode usar os seus dados no treinamento, mas dificilmente reproduz algo idêntico ao original. Por isso, mesmo que seu conteúdo tenha sido utilizado, o resultado gerado pela IA é uma variação tão ampla que a identificação direta é praticamente impossível. Isso acontece porque os modelos de IA não memorizam dados como um banco de dados. Eles criam padrões e geram novos conteúdos com base nesses padrões, dificultando qualquer tentativa de rastrear o conteúdo original.
FB – Como agir e se resguardar legalmente?
Nunes – O ponto de partida é garantir termos de uso claros, deixando explícito que o conteúdo do seu site não pode ser usado para treinamento de IA sem autorização. Adotar tecnologias que restrinjam bots não autorizados, como Cloudflare ou ferramentas similares, também é uma medida prática, mas não resolve a questão retroativamente. No campo jurídico, as empresas podem seguir o exemplo da Associated Press, que fez um acordo para licenciar conteúdos à OpenAI, garantindo controle e compensação financeira. Além disso, acompanhar as regulamentações que estão surgindo globalmente é fundamental. Há discussões ativas sobre como as empresas de IA devem prestar contas sobre os dados que utilizam nos treinamentos, e quem acompanhar essas mudanças de perto terá mais segurança e previsibilidade jurídica.