Regras de IA na Europa serão referencial

16 de abril de 2024
Canva Images

Conjunto de regras para a IA é imprescindível

O desenvolvimento da IA (Inteligência Artificial) acontece a passo tão acelerado que pensar em regras que orientem esse avanço pode parecer algo destinado a falhar: quando um conjunto de regras estivesse fixado, o estado da arte em IA já teria se transformado, tornando as regras obsoletas ou inaplicáveis. E, no entanto, um conjunto de regras é imprescindível, uma vez que as aplicações da IA estão e estarão cada vez mais presentes em nossas vidas.

  • Siga a Forbes no WhatsApp e receba as principais notícias sobre negócios, carreira, tecnologia e estilo de vida

A aprovação veio perto do fim de fevereiro e entrou em vigor no dia 7 de março. A convivência das autoridades europeias com as chamadas “big techs” nunca foi muito suave. Para citar só um exemplo um pouco mais recente, em julho do ano passado, o CJEU (Tribunal de Justiça da União Europeia, na sigla em inglês) decidiu que os órgãos antitruste dos países do bloco podem verificar se as regras de proteção de dados estão sendo respeitadas.

A decisão foi contra a Meta: as autoridades alemãs haviam determinado, em 2019, que a companhia (dona de nada menos que Facebook, Instagram e WhatsApp) deveria parar de coletar dados de usuários sem consentimento. Órgãos reguladores de outros países elogiaram a decisão da corte europeia, vendo aí uma abertura para que mais fiscalização recaia sobre as atividades das big techs. Isso foi cerca de oito meses antes da chamada “AI Act” (“Lei da IA”) europeia entrar em vigor. À época, a legislação que embasou o caso contra a Meta foi a GDPR (Regulamentação Geral de Proteção de Dados, na sigla em inglês).

E a nova legislação já está em ação: no dia 25 de março foram abertas investigações contra Apple, Alphabet (dona da Google) e Meta, todas por suspeita de descumprir em parte a Lei dos Mercados Digitais. Serão 12 meses em que a os negócios dessas gigantes vão ser observados com lupa. Críticos já apontam riscos para a economia europeia; defensores dizem ser preciso fiscalizar mais.

Leia também:

Não seria muito destoante dizer que o mundo, de forma geral, estava aguardando com certa ansiedade, de olhos voltados para a UE: o “AI Act” seria (e agora é) um marco histórico, em diversas áreas – jurídicas, legislativas, políticas, econômicas, tecnológicas. Como primeiro corpo de leis do tipo, vai orientar iniciativas semelhantes mundo afora.

Nos EUA, o governo do Estado da Califórnia já se movimenta nesse sentido, com a criação do Cited (Iniciativa da Califórnia para Tecnologia e Democracia, na sigla em inglês). A organização surgiu com foco principalmente em conter o uso dos recursos da IA para afetar as eleições, e já busca se aproximar dos legisladores europeus para ver como eles conseguiram. Talvez fosse de se esperar que nos EUA, justamente onde estão radicados os principais nomes da IA, fosse surgir uma regulamentação mais geral.

David Harris, representante da Cited, listou, no entanto, alguns fatores que explicam por que a UE tem uma dianteira tão grande nesse campo: uma delas é o ter orçamento para promover a elaboração da lei e criar instâncias reguladoras. Outro é o dispor de um órgão legislativo “muito funcional e muito capaz” de elaborar um corpo de leis tão complexo – enquanto nos EUA o Congresso “tem dificuldades funcionais em um nível muito básico”. Segundo ele ainda, os CEOs das big techs querem regulamentação, e logo. Ele ilustra com um argumento divertido, mas bastante didático: “Regulamentar tecnologia é como ir ao dentista: é menos caro se você for mais cedo. Quanto mais você esperar, mais caro e mais difícil fica”.

No Brasil, a expectativa é que Senado Federal vote ainda neste mês a regulamentação da IA. A realização de eleições neste ano serve como catalisador das atenções para a necessidade dessa aprovação. Mas a necessidade de haver regras é comum a todos os aspectos da vida moderna que fazem e farão uso da IA. O PL 2338/23 propõe que o risco no uso da IA seja classificado como excessivo (caso em que as aplicações serão proibidas) e alto risco (e aí a aplicação teria de ser monitorada). Segundo juristas, a aprovação do “AI Act” deve acelerar os trabalhos de elaboração das leis para uso da inteligência artificial. O setor privado terá que se preparar para o novo ambiente regulatório que se aproxima.

Legislações precisam evoluir: as sociedades às quais se aplicam evoluem, costumes mudam, eventualidades se impõem. E a tecnologia serve à perfeição para ilustrar o conceito de inovação. Legislações para regulamentar os usos que terão as ferramentas digitais hoje sendo desenvolvidas terão necessariamente que ser revistas de forma periódica. Mas não há volta do ponto em que estamos. Certos processos, produtos e serviços caminham para ser apenas digitais – e a segurança de dados – ainda mais na área da saúde – terá de ser o eixo central do trabalho dos legisladores, no Brasil e além.

Claudio Lottenberg é mestre e doutor em oftalmologia pela Escola Paulista de Medicina (Unifesp). É presidente do conselho do Hospital Albert Einstein e do Instituto Coalizão Saúde.

Os artigos assinados são de responsabilidade exclusiva dos autores e não refletem, necessariamente, a opinião de Forbes Brasil e de seus editores.