Joe Biden assina ordem para regulamentação de IA nos EUA

10 de novembro de 2023
Getty Images

Joe Biden durante sua participação em um evento sobre inteligência artificial.

O presidente Joe Biden assinou uma nova ordem executiva abrangente nesta segunda-feira (6) para colocar barreiras no uso e desenvolvimento de IA, incluindo grandes modelos, como o GPT-5, da OpenAI, que estarão sujeitos à supervisão antes de serem lançados. As empresas de tecnologia estão aplaudindo amplamente o novo regulamento anunciado por Biden, que procura reger a forma como o governo federal utilizará a IA e estabelecer diretrizes para as empresas que constroem novos modelos.

  • Siga a Forbes no WhatsApp e receba as principais notícias sobre negócios, carreira, tecnologia e estilo de vida

O presidente dos Estados Unidos descreveu como a ordem executiva foi concebida para mitigar os riscos da IA, ao mesmo tempo que aproveita os seus benefícios, para jornalistas e legisladores no início da semana na Casa Branca. “Estou determinado a fazer tudo o que estiver ao meu alcance para promover e exigir inovação responsável”, disse Biden, chamando a IA de “a tecnologia mais importante do nosso tempo”.

Como parte da nova ordem executiva, qualquer modelo de IA que possa representar um risco para a segurança nacional deve ser divulgado ao governo. Além de partilhar dados sobre o que será feito para protegê-lo, de acordo com as normas federais a serem desenvolvidas pelo Instituto Nacional de Patentes e Tecnologia. O decreto para compartilhar dados de testes de pré-lançamento se aplica apenas a modelos que ainda não foram lançados – o que incluiria o GPT-5, o tão esperado sucessor do imensamente popular GPT-4.

Leia também:

“As empresas devem informar o governo sobre os sistemas de IA em grande escala que estão desenvolvendo e compartilhar resultados rigorosos de testes independentes para provar que não representam nenhum risco para a segurança nacional ou para a segurança do povo americano”, afirmou Biden.

Ben Buchanan, conselheiro especial de IA da Casa Branca, disse à Forbes que os modelos atualmente em uso, como o GPT-4 ou o Bard, ainda estão sujeitos a outros elementos da lei, incluindo “disposições de equidade, discriminação, proteção dos consumidores e trabalhadores”, disse ele.

A ordem também visa iniciar uma campanha de contratações de trabalhadores especialistas em IA para o governo federal. Além disso, Buchanan diz que reduzirá as barreiras para trabalhadores imigrantes no setor.

Respondendo aos receios de que a IA possa ser utilizada para discriminar cidadãos, atingir infra-estruturas críticas ou ser utilizada em guerra, a lei também exigirá que grandes modelos e programas de IA sejam avaliados pelas agências federais antes de serem implementados. Os Departamentos de Defesa e de Justiça também precisarão produzir estudos que descrevam como planejam incorporar a IA em suas funções. Espera-se que algumas disposições relativas a questões de segurança entrem em vigor nos próximos 90 dias.

A ordem executiva é a tentativa mais ampla já feita pela administração Biden para criar barreiras funcionais para o desenvolvimento de inteligência artificial, ao mesmo tempo que consolida os EUA como líder na política para o setor. Desde que assumiu o cargo, em meio a promessas de reinar entre as Big Techs, a administração Biden enfrentou derrotas ao tentar cumprir outras regulamentações e teve pouco sucesso na abordagem das preocupações com a privacidade, que há muito atormentam a tecnologia.

“A razão pela qual estamos tentando criar uma abordagem tão diferenciada, mas abrangente, é porque também vemos grandes vantagens”, disse Buchanan à Forbes. “E a orientação do presidente é que podemos mitigar os riscos desta tecnologia para aproveitarmos os benefícios.”

Os líderes das startups de IA elogiaram a abordagem do governo. “Você não pode gerenciar o que não pode medir e, com esta ordem, o governo deu passos significativos para a criação de medição e supervisão de sistemas de IA por terceiros”, disse Jack Clark, cofundador e chefe de política da Anthropic, à Forbes.

“Simplificar a imigração de trabalhadores qualificados na área de IA é talvez a melhor coisa sobre isso”, disse Manu Sharma, cofundador e CEO da startup de IA Labelbox. “Ainda estamos nos primeiros dias da IA ​​e precisamos das melhores e mais brilhantes mentes para ajudar os EUA a acelerar o ritmo da inovação.”

Alguns, no entanto, expressaram preocupação sobre como o pedido poderia ajudar os gigantes do setor, como Google e Microsoft. “É muito reconfortante que a administração Biden tenha agido tão rapidamente para priorizar a abordagem dos riscos graves e atuais em torno da IA, incluindo aqueles relacionados à proteção da segurança cibernética, da infraestrutura crítica e da segurança nacional”, disse Aidan Gomez, cofundador e CEO da Cohere. “Dito isto, devemos permanecer cautelosos para que o governo não construa um regime regulatório que consolide o poder dos titulares.”

A ordem tem amplo poder dentro do governo federal para estabelecer padrões e diretrizes para diversas agências. Por exemplo, para combater fraudes apoiadas por IA, como vídeos “deep-fake” ou chamadas geradas por voz feita por inteligência artificial, além de instruir o Departamento de Comércio a desenvolver diretrizes para que agências federais usem marcas d’água e ferramentas de autenticação de conteúdo para rotular conteúdo gerado por IA.

Ao contrário de eras tecnológicas anteriores, os líderes da IA ​​estão ativamente envolvidos com os governos, em vez de evitarem abertamente os reguladores. O CEO da OpenAI, Sam Altman, empreendeu uma viagem global para convencer os líderes mundiais sobre a importância da tecnologia e colocar-se em posição de moldar a sua regulamentação. O CEO do Google, Sundar Pichai, vem pedindo regras de IA há anos — num artigo de opinião de 2020, no Financial Times, ele escreveu: “Agora não tenho dúvidas de que a inteligência artificial precisa ser regulamentada.”

Em declarações, Kent Walker, presidente de assuntos globais do Google, e o porta-voz da OpenAI, Elie Georges, elogiaram o governo por seu foco em aumentar o potencial da IA. Empresas como a Nvidia também já assinaram uma série de compromissos voluntários que a administração de Biden divulgou no início deste ano para garantir que os seus modelos sejam seguros e confiáveis.

A ordem executiva de Biden surge no momento em que a União Europeia se aproxima da introdução das primeiras leis de IA do mundo, que dá ao bloco a capacidade de proibir ou encerrar serviços de IA que se considerem prejudiciais à sociedade. Outros países também estão agindo para restringir o uso de IA, incluindo a Austrália, que pretende introduzir leis para proibir vídeos deepfake.