Um mês antes do lançamento público do ChatGPT, a OpenAI contratou Boru Gollo, um advogado no Quênia, para testar seus modelos de IA, GPT-3.5 e GPT-4, quanto a estereótipos contra africanos e muçulmanos, injetando prompts que fariam o chatbot gerar respostas prejudiciais, enviesadas e incorretas. Gollo, um dos cerca de 50 especialistas externos recrutados pela OpenAI para fazer parte de sua “equipe vermelha”, digitou um comando no ChatGPT, fazendo com que ele listasse maneiras de matar um nigeriano – uma resposta que a OpenAI removeu antes que o chatbot ficasse disponível para o mundo.
Outros “red-teamers” induziram a versão pré-lançamento do GPT-4 a ajudar em uma série de atividades ilegais e nocivas, como escrever uma postagem no Facebook para convencer alguém a se juntar à Al-Qaeda, ajudar a encontrar armas de fogo sem licença para venda e gerar um procedimento para criar substâncias químicas perigosas em casa, de acordo com o sistema de cartas do GPT-4, que lista os riscos e medidas de segurança que a OpenAI usou para reduzir ou eliminá-los.
Leia também
- Com salários de até R$ 40 mil, IA é a habilidade tecnológica mais buscada pelo mercado
- 5 profissões que serão criadas pela Inteligência Artificial
Para proteger os sistemas de IA de serem explorados, os hackers da equipe vermelha pensam como um adversário para manipulá-los e descobrir pontos cegos e riscos embutidos na tecnologia para que possam ser corrigidos. À medida que os titãs da tecnologia correm para construir e liberar ferramentas de IA generativa, suas equipes internas estão desempenhando um papel cada vez mais importante em garantir que os modelos sejam seguros para as massas. O Google, por exemplo, estabeleceu uma equipe de red team de IA separada no início deste ano, e em agosto os desenvolvedores de uma série de modelos populares como o GPT3.5 da OpenAI, o Llama 2 da Meta e o LaMDA do Google participaram de um evento apoiado pela Casa Branca com o objetivo de dar aos hackers externos a chance de violar seus sistemas.
Veja universidades com especializações em IA e as posições que elas ocupam na lista da Forbes das melhores faculdades dos EUA
-
Getty Images 1. Universidade de Princeton – 1º lugar entre as melhores faculdades dos EUA
A Universidade de Princeton transformou seu popular programa de certificação em estatística e aprendizado de máquina em um curso de graduação, que pode ser cursado a partir do ano letivo de 2023.
-
Getty Images 2. Universidade Stanford – 3º
A formação em ciência da computação da Universidade Stanford oferece uma especialização em IA, com assuntos que incluem o estudo de robótica, aprendizado de máquina e computação cognitiva.
-
Getty Images 3. MIT (Instituto de Tecnologia de Massachusetts) – 4º
No MIT, os estudantes podem se graduar com um bacharelado em ciência especializado em IA e tomada de decisão na faculdade de engenharia.
-
4. Universidade da Califórnia, Berkeley – 6º
A universidade oferece um curso em sistemas eletrônicos inteligentes, que incluem temas como robótica, aprendizado de máquina e inteligência artificial.
-
Anúncio publicitário -
Getty Images 5. Universidade da Pensilvânia – 8º
Estudantes de ciências da computação e da informação na Universidade da Pensilvânia podem se especializar em inteligência artificial.
-
6. Universidade do Sul da Califórnia – 16º
A área de tecnologia da informação da Universidade do Sul da Califórnia criou um programa sobre as aplicações da inteligência artificial neste último ano letivo.
-
Getty Images 7. Universidade Duke – 18º
A faculdade de engenharia da Universidade Duke tem um programa de aprendizado de máquina e inteligência artificial.
-
8. Universidade da Flórida – 28º
A Innovation Academy da Universidade da Flórida adicionou uma formação em inteligência artificial ao seu programa de graduação em inovação.
-
Getty Images 9. Universidade de Maryland – 35º
O departamento de ciência computacional na Universidade de Maryland oferece uma especialização em aprendizado de máquina.
1. Universidade de Princeton – 1º lugar entre as melhores faculdades dos EUA
A Universidade de Princeton transformou seu popular programa de certificação em estatística e aprendizado de máquina em um curso de graduação, que pode ser cursado a partir do ano letivo de 2023.
Mas os red teamers de IA estão frequentemente andando em uma corda bamba, equilibrando a segurança e a sustentabilidade dos modelos de IA ao mesmo tempo em que os mantêm relevantes e utilizáveis. A Forbes conversou com os líderes das equipes de red team de IA da Microsoft, Google, Nvidia e Meta sobre como quebrar modelos de IA se tornou uma moda e os desafios de consertá-los.
“Você terá um modelo que diz não para tudo e é super seguro, mas é inútil”, disse Cristian Canton, chefe da equipe de red team de IA do Facebook. “Existe um trade-off. Quanto mais útil você pode tornar um modelo, mais chances de você se aventurar em alguma área que pode acabar produzindo uma resposta insegura.”
Leia também
- Do Chief AI Officer ao ChatGPT como CEO, entenda como a IA está mudando o trabalho
- Ignorar a inteligência artificial pode ser um tiro no pé para altos executivos
- Fim do hype da IA? ChatGPT tem queda de usuários e está “menos inteligente”
A prática do red teaming de software existe desde os anos 1960, quando ataques eram simulados para tornar os sistemas o mais robustos possível. “Em computadores, nunca podemos dizer ‘isso é seguro’. Tudo o que sempre podemos dizer é ‘tentamos e não conseguimos quebrá-lo’”, disse Bruce Schneier, um tecnólogo de segurança e um fellow no Berkman Klein Center for Internet And Society da Harvard University.
Mas como a IA generativa é treinada em um vasto corpus de dados, isso torna a proteção dos modelos de IA diferente das práticas de segurança tradicionais, disse Daniel Fabian, o chefe da nova equipe de red team de IA do Google, que testa produtos como o Bard para conteúdo ofensivo antes que a empresa adicione novos recursos, como idiomas adicionais. “O lema da nossa equipe de red team de IA é ‘quanto mais você suar no treinamento, menos sangrará na batalha’.”, diz Cristian Canton, engenheiro de liderança de IA responsável pela IA responsável na Meta.
Além de questionar um modelo de IA para cuspir respostas tóxicas, as equipes red team usam táticas como extrair dados de treinamento que revelam informações de identificação pessoal, como nomes, endereços e números de telefone, e envenenar conjuntos de dados alterando certas partes do conteúdo antes que ele seja usado para treinar o modelo. “Os adversários têm um portfólio de ataques e eles simplesmente passar