A OpenAI anunciou na noite desta segunda-feira (16) que seu comitê de segurança atuará como um órgão independente, supervisionando os processos de desenvolvimento e implementação do modelo de inteligência artificial da empresa.
A OpenAI, desenvolvedora do ChatGPT, formou o Comitê de Segurança e Proteção em maio deste ano para avaliar e desenvolver práticas de cibersegurança na empresa.
Leia também
Como parte das recomendações do comitê, a OpenAI disse que avaliará a possibilidade do desenvolvimento de um “Centro de Análise e Compartilhamento de Informações (ISAC) para o setor de IA, para permitir a comunicação e transmissão de informações sobre a tecnologia e segurança digital entre entidades de IA”.
Zico Kolter, professor e diretor do departamento de aprendizado de máquina da Carnegie Mellon University, parte do conselho da OpenAI, será o presidente do comitê.
“Estamos buscando a expansão da segmentação de informações internas e a contratação de pessoal para aprofundar as equipes de operações de segurança 24 horas por dia”, afirmou a OpenAI. A empresa também disse que trabalhará para se tornar mais transparente sobre as capacidades e os riscos de seus modelos de IA.
No mês passado, a OpenAI assinou um acordo com o governo dos Estados Unidos para pesquisa, teste e avaliação de seus modelos de IA.