A inteligência artificial, assim como um sociopata, inerentemente não demonstra preocupação com o certo e o errado. Essa semelhança perturbadora levanta uma questão importante: podemos confiar no futuro da IA?
-
Siga a Forbes no WhatsApp e receba as principais notícias sobre negócios, carreira, tecnologia e estilo de vida
Joe Edelman, antes de fundar o Meaning Alignment Institute (Instituto de Alinhamento de Significado), refletiu profundamente sobre isso. Financiado pela OpenAI, o MAI criou um modelo para orientar a IA, especialmente de grandes modelos de linguagem, como o ChatGPT, a responder a perguntas levando em consideração valores humanos decididos democraticamente.
Leia também:
- Xamanismo ciborgue: a futurista britânica Adah Parris explica o termo que criou
- Apple lidera e segue como a marca mais forte no ranking da Interbrand pelo 11º ano
- Entenda como funciona o AI Pin, dispositivo que pretende acabar com os celulares
Estabelecendo valores comuns diante de desafios sociais
Como criamos valores comuns e por que é necessário? Em uma era marcada pela polarização, alcançar um consenso sobre valores compartilhados é assustador. Tentativas anteriores de educar socialmente a IA tiveram resultados mistos, com casos, por exemplo, de propagação de discursos de ódio.
Apoiando-se no trabalho de filósofos como Charles Taylor, Edelman acredita que os valores dizem respeito ao que consideramos significativo em escolhas morais difíceis, em vez de ideologia. Esse conceito é a base da abordagem do MAI.
Em vez de perguntar diretamente às pessoas sobre seus valores, o modelo do MAI utiliza um chatbot alimentado pelo ChatGPT para descobrir o que as pessoas realmente consideram significativo — o que é feito por meio de perguntas predefinidas.
Em minha conversa com Edelman, levantei algumas preocupações sobre viés, como tamanho da amostra, viés da amostra (incluindo viés cultural) e perguntas tendenciosas. O relatório do estudo, baseado nas respostas de 500 pessoas selecionadas para refletir a idade, renda, inclinações políticas e geografia da população dos EUA, mostrou progresso em algumas áreas de viés, enquanto outras ainda precisam ser trabalhadas. No entanto, o objetivo principal do estudo foi provar que os valores podem ser coletados democraticamente de populações diversas e, em seguida, importados para um LLM como o ChatGPT para ajudar a orientar suas respostas.
Os resultados deste estudo focado nos EUA mostraram que até mesmo aqueles com ideologias opostas poderiam ter valores subjacentes semelhantes. Mesmo que as formas como esses valores eram expressos diferissem.
Por que adicionar valores humanos a chatbots é importante?
Chatbots estão moldando cada vez mais nossas vidas, frequentemente priorizando ganhos comerciais sobre implicações morais. Como Edelman observou: “O Pentágono tem um LLM que está desenvolvendo estratégias de guerra. Empresas financeiras estão experimentando colocar LLMs no leme das negociações. E, é claro, já começamos a ver as consequências midiáticas. No entanto, na verdade, é bastante difícil contratar um sociopata como seu redator”.
Adicionar valores humanos aos LLMs garante que essas tecnologias incorporem respostas mais humanas por meio de um processo democrático, evitando as armadilhas de uma IA amorfa ou onde os valores foram decididos pelo desenvolvedor ou pelo próprio sistema tecnológico.
A ameaça comercial e a legislação
Edelman reconhece que há pouco incentivo comercial para que as empresas adicionem valores humanos (como autogestão, que poderia reduzir a dependência do usuário) aos seus LLMs — por isso, o MAI é uma organização sem fins lucrativos, financiada por subsídios. Infelizmente, como a história sugere que as empresas são relutantes em olhar além da maximização do lucro, é difícil imaginar que, sem intervenção legislativa, provedores de mídia social e outros implementarão mais “humanidade” em seus LLMs.
Enquanto isso, Edelman espera que a OpenAI possa liderar a adição de valores humanos ao ChatGPT. Já que a empresa está “livre de algumas forças competitivas por enquanto”.
Preservando nossa humanidade
À medida que dependemos cada vez mais da IA, equilibrar a confiança tecnológica com nossa essência humana torna-se crucial. Não é apenas sobre melhorar a tecnologia; é sobre preservar nossa humanidade em um mundo cada vez mais automatizado.