- Siga a Forbes no WhatsApp e receba as principais notícias sobre negócios, carreira, tecnologia e estilo de vida
A aprovação veio perto do fim de fevereiro e entrou em vigor no dia 7 de março. A convivência das autoridades europeias com as chamadas “big techs” nunca foi muito suave. Para citar só um exemplo um pouco mais recente, em julho do ano passado, o CJEU (Tribunal de Justiça da União Europeia, na sigla em inglês) decidiu que os órgãos antitruste dos países do bloco podem verificar se as regras de proteção de dados estão sendo respeitadas.
A decisão foi contra a Meta: as autoridades alemãs haviam determinado, em 2019, que a companhia (dona de nada menos que Facebook, Instagram e WhatsApp) deveria parar de coletar dados de usuários sem consentimento. Órgãos reguladores de outros países elogiaram a decisão da corte europeia, vendo aí uma abertura para que mais fiscalização recaia sobre as atividades das big techs. Isso foi cerca de oito meses antes da chamada “AI Act” (“Lei da IA”) europeia entrar em vigor. À época, a legislação que embasou o caso contra a Meta foi a GDPR (Regulamentação Geral de Proteção de Dados, na sigla em inglês).
Leia também:
- Metas da OMS e o esforço necessário para superá-las
- O caminho melodioso até um cérebro saudável na velhice
- Viver mais de um século requer planejamento. E é preciso começar já
Não seria muito destoante dizer que o mundo, de forma geral, estava aguardando com certa ansiedade, de olhos voltados para a UE: o “AI Act” seria (e agora é) um marco histórico, em diversas áreas – jurídicas, legislativas, políticas, econômicas, tecnológicas. Como primeiro corpo de leis do tipo, vai orientar iniciativas semelhantes mundo afora.
Nos EUA, o governo do Estado da Califórnia já se movimenta nesse sentido, com a criação do Cited (Iniciativa da Califórnia para Tecnologia e Democracia, na sigla em inglês). A organização surgiu com foco principalmente em conter o uso dos recursos da IA para afetar as eleições, e já busca se aproximar dos legisladores europeus para ver como eles conseguiram. Talvez fosse de se esperar que nos EUA, justamente onde estão radicados os principais nomes da IA, fosse surgir uma regulamentação mais geral.
No Brasil, a expectativa é que Senado Federal vote ainda neste mês a regulamentação da IA. A realização de eleições neste ano serve como catalisador das atenções para a necessidade dessa aprovação. Mas a necessidade de haver regras é comum a todos os aspectos da vida moderna que fazem e farão uso da IA. O PL 2338/23 propõe que o risco no uso da IA seja classificado como excessivo (caso em que as aplicações serão proibidas) e alto risco (e aí a aplicação teria de ser monitorada). Segundo juristas, a aprovação do “AI Act” deve acelerar os trabalhos de elaboração das leis para uso da inteligência artificial. O setor privado terá que se preparar para o novo ambiente regulatório que se aproxima.
Legislações precisam evoluir: as sociedades às quais se aplicam evoluem, costumes mudam, eventualidades se impõem. E a tecnologia serve à perfeição para ilustrar o conceito de inovação. Legislações para regulamentar os usos que terão as ferramentas digitais hoje sendo desenvolvidas terão necessariamente que ser revistas de forma periódica. Mas não há volta do ponto em que estamos. Certos processos, produtos e serviços caminham para ser apenas digitais – e a segurança de dados – ainda mais na área da saúde – terá de ser o eixo central do trabalho dos legisladores, no Brasil e além.
Claudio Lottenberg é mestre e doutor em oftalmologia pela Escola Paulista de Medicina (Unifesp). É presidente do conselho do Hospital Albert Einstein e do Instituto Coalizão Saúde.