Muitos profissionais nos Estados Unidos estão recorrendo ao ChatGPT para ajudar em tarefas básicas, mostrou uma pesquisa Reuters/Ipsos, apesar dos temores que levaram empregadores como Apple, Microsoft e Google a restringir seu uso.
Empresas em todo o mundo estão avaliando a melhor forma de usar o ChatGPT, um programa de chatbot que usa IA generativa para manter conversas com usuários e responder a inúmeras solicitações. Empresas de segurança e outras companhias, porém, levantaram preocupações de que isso poderia resultar em vazamentos de propriedade intelectual e estratégia.
Cerca de 28% dos 2.625 entrevistados na pesquisa online sobre IA (inteligência artificial) entre 11 e 17 de julho disseram que usam regularmente o ChatGPT no trabalho, enquanto apenas 22% disseram que seus empregadores permitiam explicitamente tais ferramentas externas.
Cerca de 10% dos entrevistados disseram que seus chefes proibiram explicitamente ferramentas externas de inteligência artificial, enquanto cerca de 25% não sabiam se sua empresa permitia o uso da tecnologia.
Leia também:
- Do Chief AI Officer ao ChatGPT como CEO, entenda como a IA está mudando o trabalho
- Quais profissões serão substituídas pela IA? Veja as áreas
“As pessoas não entendem como os dados são usados quando usam serviços de inteligência artificial generativos”, disse Ben King, vice-presidente de confiança do cliente na empresa de segurança corporativa Okta .
“Para as empresas, isso é crucial, porque os usuários não têm contrato com muitos programas – porque são um serviço gratuito –, portanto, as empresas não vão correr o risco por meio de seu processo de avaliação usual”, disse King.
A OpenAI se recusou a comentar quando questionada sobre as implicações de funcionários individuais usando o ChatGPT, mas destacou uma publicação da empresa garantindo aos parceiros corporativos que seus dados não são usados para treinar o chatbot ainda mais, a menos que eles dessem permissão explícita.
Quando as pessoas usam o Bard, do Google, o programa coleta dados como texto, localização e outras informações de uso. A empresa permite que os usuários excluam atividades anteriores de suas contas e solicitem que o conteúdo inserido na tecnologia seja removido. De propriedade da Alphabet, o Google se recusou a comentar quando solicitado a fornecer mais detalhes.
“Tarefas inofensivas”
Um funcionário do Tinder disse que os empregados do aplicativo de relacionamento usaram o ChatGPT para “tarefas inofensivas”, como escrever emails, embora a empresa não o permita oficialmente.
“São emails regulares. Muito sem consequências, como fazer convites engraçados para eventos da equipe, emails de despedida quando alguém está saindo… Também usamos para pesquisas gerais”, disse o funcionário, que não quis ser identificado porque não era autorizado a falar com repórteres.
O funcionário disse que a empresa tem uma “regra sem ChatGPT”, mas que os funcionários ainda o usam de uma “forma genérica que não revela nada sobre o Tinder”.
O aplicativo disse que forneceu “orientação regular aos funcionários sobre as melhores práticas de segurança e dados”.
Em maio, a Samsung proibiu os funcionários mundialmente de usarem o ChatGPT e ferramentas semelhantes depois de descobrir que um funcionário carregou um código confidencial na plataforma.
A Reuters informou em junho que a Alphabet alertou os funcionários sobre como eles usam chatbots, incluindo o Bard, ao mesmo tempo em que comercializa o programa globalmente.
O Google disse que, embora Bard possa fazer sugestões indesejadas de código, isso ajuda os programadores. A companhia também disse que pretende ser transparente sobre as limitações de sua tecnologia.
Cautela com o ChatGPT
Algumas empresas disseram à Reuters que estão adotando o ChatGPT e plataformas semelhantes, mas de olho na segurança.
“Começamos a testar e aprender sobre como a inteligência artificial pode aumentar a eficácia operacional”, disse um porta-voz da Coca-Cola em Atlanta, acrescentando que os dados permanecem dentro de seu firewall.
“Internamente, lançamos recentemente nossa versão corporativa do Coca-Cola ChatGPT para produtividade”, disse o porta-voz, acrescentando que a Coca-Cola planeja usar a IA para melhorar a eficácia e a produtividade de suas equipes.
Enquanto isso, a diretora financeira Dawn Allen, da Tate & Lyle, disse à Reuters que a fabricante global de ingredientes estava testando o ChatGPT, tendo “encontrado uma maneira de usá-lo de maneira segura”.
“Temos equipes diferentes decidindo como querem usá-lo por meio de uma série de experimentos”, disse.
Mesmo assim, em algumas empresas funcionários dizem que não conseguem acessar a plataforma nos computadores.
“Está completamente proibido na rede do escritório, como se não funcionasse”, disse um empregado da Procter & Gamble, que preferiu manter o anonimato por não estar autorizado a falar com a imprensa.
A P&G se recusou a comentar. A Reuters não conseguiu confirmar de forma independente se os funcionários da companhia não conseguiam usar o chatbot.
Paul Lewis, diretor de segurança da informação da empresa de segurança cibernética Nominet, disse que as empresas estavam certas em serem cautelosas.
“Todo mundo obtém o benefício dessa capacidade aumentada, mas a informação não é completamente segura e pode ser projetada para fora”, disse ele, citando “prompts maliciosos” que podem ser usados para fazer com que os chatbots divulguem informações.
“A proibição total ainda não é garantida, mas precisamos agir com cuidado”, disse Lewis.