Empresas em todo o mundo estão avaliando a melhor forma de usar o ChatGPT, um programa de chatbot que usa IA generativa para manter conversas com usuários e responder a inúmeras solicitações. Empresas de segurança e outras companhias, porém, levantaram preocupações de que isso poderia resultar em vazamentos de propriedade intelectual e estratégia.
Cerca de 28% dos 2.625 entrevistados na pesquisa online sobre IA (inteligência artificial) entre 11 e 17 de julho disseram que usam regularmente o ChatGPT no trabalho, enquanto apenas 22% disseram que seus empregadores permitiam explicitamente tais ferramentas externas.
Leia também:
- Do Chief AI Officer ao ChatGPT como CEO, entenda como a IA está mudando o trabalho
- Quais profissões serão substituídas pela IA? Veja as áreas
“As pessoas não entendem como os dados são usados quando usam serviços de inteligência artificial generativos”, disse Ben King, vice-presidente de confiança do cliente na empresa de segurança corporativa Okta .
“Para as empresas, isso é crucial, porque os usuários não têm contrato com muitos programas – porque são um serviço gratuito –, portanto, as empresas não vão correr o risco por meio de seu processo de avaliação usual”, disse King.
Quando as pessoas usam o Bard, do Google, o programa coleta dados como texto, localização e outras informações de uso. A empresa permite que os usuários excluam atividades anteriores de suas contas e solicitem que o conteúdo inserido na tecnologia seja removido. De propriedade da Alphabet, o Google se recusou a comentar quando solicitado a fornecer mais detalhes.
“Tarefas inofensivas”
Um funcionário do Tinder disse que os empregados do aplicativo de relacionamento usaram o ChatGPT para “tarefas inofensivas”, como escrever emails, embora a empresa não o permita oficialmente.
“São emails regulares. Muito sem consequências, como fazer convites engraçados para eventos da equipe, emails de despedida quando alguém está saindo… Também usamos para pesquisas gerais”, disse o funcionário, que não quis ser identificado porque não era autorizado a falar com repórteres.
O aplicativo disse que forneceu “orientação regular aos funcionários sobre as melhores práticas de segurança e dados”.
Em maio, a Samsung proibiu os funcionários mundialmente de usarem o ChatGPT e ferramentas semelhantes depois de descobrir que um funcionário carregou um código confidencial na plataforma.
A Reuters informou em junho que a Alphabet alertou os funcionários sobre como eles usam chatbots, incluindo o Bard, ao mesmo tempo em que comercializa o programa globalmente.
Cautela com o ChatGPT
Algumas empresas disseram à Reuters que estão adotando o ChatGPT e plataformas semelhantes, mas de olho na segurança.
“Começamos a testar e aprender sobre como a inteligência artificial pode aumentar a eficácia operacional”, disse um porta-voz da Coca-Cola em Atlanta, acrescentando que os dados permanecem dentro de seu firewall.
“Internamente, lançamos recentemente nossa versão corporativa do Coca-Cola ChatGPT para produtividade”, disse o porta-voz, acrescentando que a Coca-Cola planeja usar a IA para melhorar a eficácia e a produtividade de suas equipes.
“Temos equipes diferentes decidindo como querem usá-lo por meio de uma série de experimentos”, disse.
Mesmo assim, em algumas empresas funcionários dizem que não conseguem acessar a plataforma nos computadores.
“Está completamente proibido na rede do escritório, como se não funcionasse”, disse um empregado da Procter & Gamble, que preferiu manter o anonimato por não estar autorizado a falar com a imprensa.
Paul Lewis, diretor de segurança da informação da empresa de segurança cibernética Nominet, disse que as empresas estavam certas em serem cautelosas.
“Todo mundo obtém o benefício dessa capacidade aumentada, mas a informação não é completamente segura e pode ser projetada para fora”, disse ele, citando “prompts maliciosos” que podem ser usados para fazer com que os chatbots divulguem informações.
“A proibição total ainda não é garantida, mas precisamos agir com cuidado”, disse Lewis.