Sem valores humanos, o que impede a IA de atuar como um sociopata?

25 de novembro de 2023
DALL-E

“Humanizar” a IA é sobre preservar uma sociedade democrática em um mundo cada vez mais automatizado.

A inteligência artificial, assim como um sociopata, inerentemente não demonstra preocupação com o certo e o errado. Essa semelhança perturbadora levanta uma questão importante: podemos confiar no futuro da IA?

  • Siga a Forbes no WhatsApp e receba as principais notícias sobre negócios, carreira, tecnologia e estilo de vida

Joe Edelman, antes de fundar o Meaning Alignment Institute (Instituto de Alinhamento de Significado), refletiu profundamente sobre isso. Financiado pela OpenAI, o MAI criou um modelo para orientar a IA, especialmente de grandes modelos de linguagem, como o ChatGPT, a responder a perguntas levando em consideração valores humanos decididos democraticamente.

Leia também:

Estabelecendo valores comuns diante de desafios sociais

Como criamos valores comuns e por que é necessário? Em uma era marcada pela polarização, alcançar um consenso sobre valores compartilhados é assustador. Tentativas anteriores de educar socialmente a IA tiveram resultados mistos, com casos, por exemplo, de propagação de discursos de ódio.

Apoiando-se no trabalho de filósofos como Charles Taylor, Edelman acredita que os valores dizem respeito ao que consideramos significativo em escolhas morais difíceis, em vez de ideologia. Esse conceito é a base da abordagem do MAI.

Em vez de perguntar diretamente às pessoas sobre seus valores, o modelo do MAI utiliza um chatbot alimentado pelo ChatGPT para descobrir o que as pessoas realmente consideram significativo — o que é feito por meio de perguntas predefinidas.

Em minha conversa com Edelman, levantei algumas preocupações sobre viés, como tamanho da amostra, viés da amostra (incluindo viés cultural) e perguntas tendenciosas. O relatório do estudo, baseado nas respostas de 500 pessoas selecionadas para refletir a idade, renda, inclinações políticas e geografia da população dos EUA, mostrou progresso em algumas áreas de viés, enquanto outras ainda precisam ser trabalhadas. No entanto, o objetivo principal do estudo foi provar que os valores podem ser coletados democraticamente de populações diversas e, em seguida, importados para um LLM como o ChatGPT para ajudar a orientar suas respostas.

Os resultados deste estudo focado nos EUA  mostraram que até mesmo aqueles com ideologias opostas poderiam ter valores subjacentes semelhantes. Mesmo que as formas como esses valores eram expressos diferissem.

Por que adicionar valores humanos a chatbots é importante?

Chatbots estão moldando cada vez mais nossas vidas, frequentemente priorizando ganhos comerciais sobre implicações morais. Como Edelman observou: “O Pentágono tem um LLM que está desenvolvendo estratégias de guerra. Empresas financeiras estão experimentando colocar LLMs no leme das negociações. E, é claro, já começamos a ver as consequências midiáticas. No entanto, na verdade, é bastante difícil contratar um sociopata como seu redator”.

Adicionar valores humanos aos LLMs garante que essas tecnologias incorporem respostas mais humanas por meio de um processo democrático, evitando as armadilhas de uma IA amorfa ou onde os valores foram decididos pelo desenvolvedor ou pelo próprio sistema tecnológico.

A ameaça comercial e a legislação

Edelman reconhece que há pouco incentivo comercial para que as empresas adicionem valores humanos (como autogestão, que poderia reduzir a dependência do usuário) aos seus LLMs — por isso, o MAI é uma organização sem fins lucrativos, financiada por subsídios. Infelizmente, como a história sugere que as empresas são relutantes em olhar além da maximização do lucro, é difícil imaginar que, sem intervenção legislativa, provedores de mídia social e outros implementarão mais “humanidade” em seus LLMs.

Enquanto isso, Edelman espera que a OpenAI possa liderar a adição de valores humanos ao ChatGPT. Já que a empresa está “livre de algumas forças competitivas por enquanto”.

Preservando nossa humanidade

À medida que dependemos cada vez mais da IA, equilibrar a confiança tecnológica com nossa essência humana torna-se crucial. Não é apenas sobre melhorar a tecnologia; é sobre preservar nossa humanidade em um mundo cada vez mais automatizado.