Elon Musk e Steve Wozniak estão entre centenas de tecnólogos, empresários e pesquisadores que pedem aos laboratórios de IA que parem imediatamente de trabalhar em poderosos sistemas de IA, pedindo que os desenvolvedores fiquem fora da “corrida fora de controle” para implantar sistemas cada vez mais avançados, enquanto avaliamos melhor os riscos que a inteligência artificial avançada representa para a humanidade.
LEIA MAIS: Por que 2023 será o ano da inteligência artificial?
Qualquer pausa deve ser “pública e verificável” e incluir todos os principais atores, disse a carta. O documento também aponta que os desenvolvimentos acelerados dos últimos meses ressaltam a necessidade de ação drástica com “laboratórios travados em uma corrida fora de controle” para desenvolver e implantar sistemas cada vez mais poderosos que ninguém – incluindo seus criadores – pode entender, prever ou controlar.
Laboratórios e especialistas independentes devem usar a pausa para desenvolver um conjunto de protocolos de segurança compartilhados que sejam auditados e supervisionados por especialistas externos, disse a carta, o que deve garantir que os sistemas de IA “estejam seguros além de qualquer dúvida razoável”.
Os signatários incluem cientistas da computação conhecidos como Yoshua Bengio e Stuart Russell, pesquisadores acadêmicos de peso e indústrias como Oxford, Cambridge, Stanford, Caltech, Columbia, Google, Microsoft e Amazon, bem como proeminentes empreendedores de tecnologia como o cofundador do Skype, Jaan Tallinn, o cofundador do Pinterest, Evan Sharp , e o cofundador da Ripple, Chris Larsen.
LEIA MAIS: Além do hype: o que você realmente precisa saber sobre IA em 2023
Como as pessoas são convidadas a anexar seus próprios nomes à carta – que também inclui o autor Yuval Noah Harari e o político Andrew Yang – a lista deve ser tratada com certo ceticismo e o Verge relatou que o chefe da OpenAI, Sam Altman, aparentemente foi tratado como um piada.
O tremendo sucesso do ChatGPT, um chatbot de inteligência artificial criado pela OpenAI, com sede nos EUA, desencadeou uma corrida frenética para colocar novos produtos de IA no mercado. Os maiores players de tecnologia e inúmeras startups estão lutando para manter ou reivindicar espaço no mercado emergente, que pode moldar o futuro de todo o setor, e os laboratórios estão trabalhando para desenvolver produtos cada vez mais capazes.
No curto prazo, especialistas alertam que os sistemas de IA correm o risco de exacerbar o viés e a desigualdade existentes, promover a desinformação , interromper a política e a economia e podem ajudar os hackers. A longo prazo, alguns especialistas alertam que a IA pode representar um risco existencial para a humanidade e pode nos exterminar. Embora voltados para o futuro, eles argumentam que a perspectiva de IA superinteligente deve ser abordada antes de ser desenvolvida e garantir que os sistemas sejam seguros deve ser um fator chave do desenvolvimento hoje.
A carta aberta termina com uma nota positiva: “A humanidade pode desfrutar de um futuro próspero com a IA. Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um ‘verão de IA’ no qual colhemos os frutos, projetamos esses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade. Podemos fazer isso aqui. Vamos aproveitar um longo verão de IA, não correr despreparados para o outono.”
LEIA MAIS: A Inteligência Artificial será capaz de extinguir espécies?
O filantropo bilionário Bill Gates, fundador e ex-CEO da Microsoft, que investe fortemente na OpenAI, não foi citado como signatário da carta. Gates já havia reconhecido o impacto transformador que a IA terá na sociedade, elogiou os avanços “impressionantes” vistos no campo nos últimos meses e disse que um de seus principais focos é garantir que seus benefícios sejam desfrutados de forma equitativa, especialmente por aqueles que mais precisam de apoio. Em uma postagem recente no blog,Gates identificou muitas das mesmas questões levantadas na carta aberta assinada por nomes como Musk.
Gates disse que as preocupações sociais em torno da IA devem ser trabalhadas entre os governos e o setor privado, impulsionando a tecnologia para garantir que ela seja usada para o bem. Sobre os problemas técnicos, Gates disse que o progresso recente não tornou alguns problemas “mais urgentes hoje do que antes” e os pesquisadores já estão trabalhando na correção de outros problemas técnicos urgentes e provavelmente terão sucesso dentro de alguns anos.
Ele disse que as questões em torno da superinteligência – uma IA que excede as capacidades humanas em geral e dividiu a comunidade de IA quanto a se é um risco genuíno ou irremediavelmente especulativo – são legítimas, mas também não estão mais próximas, dados os desenvolvimentos recentes. Tais preocupações “ficarão mais prementes com o tempo”, acrescentou Gates.
*Robert Hart é repórter sênior da equipe de notícias de última hora da Forbes, cobrindo saúde e ciência no escritório de Londres.
(traduzido por Andressa Barbosa)