“Eu costumava pensar que os modelos de computador que estávamos desenvolvendo não eram tão bons quanto o cérebro”, diz Hinton, acrescentando que nos últimos meses ele mudou completamente de ideia e as ameaças existenciais se tornaram aparentes. A IA está ficando muito mais inteligente do que nós, com hardware cada vez mais reduzido em comparação com a roupa molhada dos cérebros humanos.
Leia também:
- Por que 2023 será o ano da inteligência artificial?
- Além do hype: o que você realmente precisa saber sobre IA em 2023
- Meta lança modelo de linguagem de inteligência artificial LLaMA
Combine tudo isso com o fato de que essas são máquinas orientadas a objetivos que precisam controlar sua autonomia e ambiente para melhor atingir seus objetivos, sejam os objetivos programados por um humano ou gerados de forma autônoma. Hinton enfatiza o problema do controle: “Se essas coisas nos atrapalham a obter mais controle, estamos em apuros”.
Hinton acha que o Google tratou a IA com responsabilidade quando seu antigo empregador foi o precursor da tecnologia. Uma vez que a OpenAI estourou publicamente e foi comprado pela Microsoft, a corrida para competir, segundo Hinton, superou as preocupações de segurança porque em qualquer sistema com competição, não é possível retardar o processo de desenvolvimento.
Ele encontra alguma esperança em se unir para gerenciar a IA com responsabilidade, já que a ameaça se estende a todos os seres biológicos. “Estamos todos no mesmo barco com relação às ameaças existenciais. Portanto, todos devemos ser capazes de cooperar na tentativa de deter os problemas da IA”, diz Hinton.