
Nos últimos anos, o conceito de código aberto ganhou novas camadas de complexidade com o avanço da inteligência artificial (IA). O que antes era um tópico limitado ao software tradicional agora se expande para modelos de IA, dados de treinamento e a própria governança da tecnologia. Será que estamos abordando um problema de 2024 com a mesma mentalidade do código aberto dos anos 1990?
A resposta está longe de ser simples. A recente controvérsia envolvendo a DeepSeek e a OpenAI reacendeu um debate: quais devem ser as verdadeiras liberdades da IA aberta? Se no início do século o software livre estabeleceu os pilares fundamentais de execução, estudo, redistribuição e modificação, agora precisamos definir um novo conjunto de princípios que guiem a inovação sem comprometer transparência, ética e acessibilidade.
O movimento de IA aberta deve ir além do acesso ao código. É preciso garantir governança responsável dos dados, clareza sobre os processos de treinamento e mecanismos de auditabilidade. A Open Source Initiative (OSI) já se posicionou com a OSAID 1.0, uma tentativa de padronizar os requisitos para que um modelo de IA seja considerado realmente open source.
Mas será suficiente? Hoje, muitas empresas utilizam o termo “aberto” apenas como estratégia de marketing, enquanto restringem o acesso aos conjuntos de dados e ao funcionamento real dos modelos. Isso levanta uma questão crítica: a transparência deve se estender ao código, aos pesos do modelo e aos dados de treinamento? Se não tivermos esses três elementos, podemos chamar de open source?
As novas liberdades da IA
Entre as novas liberdades sugeridas pela Ksneia, conselheira da Track Two: An Institute for Citizen Diplomacy, destaca-se a liberdade de acesso. Modelos e pesquisas devem ser acessíveis para todos, garantindo inovação distribuída. A liberdade para entender também é essencial, pois sistemas de IA precisam ser transparentes e interpretáveis, evitando que se tornem caixas-pretas impenetráveis. Além disso, a liberdade para esquecer deve permitir que usuários façam a IA desaprender certos dados, seja por privacidade, ética ou atualização do conhecimento.
Outro aspecto relevante é a flexibilidade dos modelos. A IA deve manter sua capacidade de adaptação, sem ficar presa a treinamentos excessivamente fechados ou a pré-treinamentos exaustivos que limitam seu desenvolvimento. Encontrar um equilíbrio entre inovação e segurança é fundamental para que a IA Aberta seja confiável e sustentável.
A Open Source Initiative (OSI) está na vanguarda dessa discussão e lançou a OSAID 1.0, um padrão que estabelece critérios mínimos para que uma IA seja considerada realmente aberta. Isso inclui o acesso aos dados usados no treinamento, ao código-fonte do modelo e às configurações do treinamento. No entanto, grandes empresas como Meta e OpenAI promovem seus modelos como “abertos”, mas sem liberar informações essenciais, levantando questionamentos sobre a real transparência dessas iniciativas.
Além disso, a governança dos dados usados para treinar IA continua sendo um ponto crítico. Enquanto alguns defendem transparência total, há preocupações legítimas sobre privacidade e uso indevido das informações. A OSI, em parceria com a Open Future Foundation, propôs diretrizes para um acesso mais equilibrado e ético a esses dados, garantindo um meio-termo entre inovação e responsabilidade.
A indústria precisa de uma definição clara do que realmente constitui uma IA aberta. O caso da DeepSeek e sua suposta “destilação” dos modelos da OpenAI expõe os desafios de uma IA que se diz aberta, mas que pode não garantir transparência real. Definir a IA de código aberto requer colaboração e aprimoramento contínuo. É um desafio, mas essencial para impulsionar a inovação sem perder de vista a liberdade e a responsabilidade.
O desafio agora é avançar na definição de um novo conjunto de liberdades para a IA garantindo um equilíbrio entre inovação, transparência e governança. O debate está apenas começando, e as escolhas que fizermos hoje influenciarão o futuro da inteligência artificial. A verdadeira liberdade da IA Aberta não é apenas sobre compartilhar tecnologia, mas garantir que seu desenvolvimento seja feito de forma colaborativa, responsável e acessível a todos.
Marcelo Ciasca é CEO Brasil do Grupo Stefanini.
Os artigos assinados são de responsabilidade exclusiva dos autores e não refletem, necessariamente, a opinião de Forbes Brasil e de seus editores.