A Apple proibiu o uso de ferramentas de IA (Inteligência Artificial) para alguns de seus funcionários, tornando-se a mais recente grande empresa a restringir o uso de plataformas desse tipo no trabalho.
Segundo o “Wall Street Journal”, isso não envolve apenas o ChatGPT, mas outros serviços baseados em IA, como o Copilot do Github, que ajuda os desenvolvedores a escrever códigos.
A proibição decorre de receios sobre as práticas de manipulação de dados das plataformas de IA – que são de propriedade ou apoiadas financeiramente pela rival da Apple, a Microsoft – pois podem comprometer o código proprietário da Apple ou outros dados confidenciais.
A concorrente Samsung implementou uma proibição semelhante para o ChatGPT e outras ferramentas de IA no início deste mês, depois de descobrir um vazamento acidental por um engenheiro que fez upload de um código confidencial no chatbot.
Leia também:
- Hustle GPT: conheça a cultura que pretende administrar negócios via ChatGPT
- Como ser bem-sucedido: 13 lições de Sam Altman, fundador do ChatGPT
- Sim, o ChatGPT pode alavancar sua carreira. Saiba como usar
Em janeiro, a Amazon também impediu os funcionários de compartilhar qualquer código ou informação confidencial com o chatbot da OpenAI depois de alegar que descobriu exemplos de respostas do ChatGPT que se assemelhavam a dados internos da Amazon.
Em fevereiro, o JPMorgan Chase restringiu severamente o uso interno do ChatGPT para evitar possíveis armadilhas regulatórias sobre o compartilhamento de informações financeiras confidenciais com uma plataforma de terceiros.
Desde então, outros bancos como Bank of America, Citigroup, Deutsche Bank, Wells Fargo e Goldman Sachs seguiram o exemplo, proibindo o uso de chatbots de IA pelos funcionários.
A maioria das empresas que proíbe o uso dessas ferramentas está preocupada com a forma como serviços como o ChatGPT e o Bard do Google armazenam dados compartilhados em servidores.
A outra complicação decorre do fato de que a maioria dos chatbots e serviços de IA dependem de entradas do usuário para treinar seus modelos e podem acidentalmente fornecer dados de uma empresa a outros usuários sem nem mesmo estar ciente disso.
O ChatGPT oferece aos usuários uma maneira de desativar o salvamento do histórico do chat, mas também não está claro se a exclusão de um bate-papo tem algum impacto se a conversa já tiver sido usada para treinar seus modelos. Em março, a OpenAI teve que desligar brevemente o ChatGPT para resolver um bug que permitia que alguns usuários vissem partes do histórico de bate-papo de outro usuário.
Enquanto umas proíbem, outras incentivam
Apesar de algumas empresas restringirem o uso de serviços de IA no trabalho, várias outras já começaram a adicionar essas ferramentas às suas rotinas.
O Goldman Sachs — um dos bancos que limitam o uso do ChatGPT pelos funcionários — divulgou que está usando ferramentas de IA generativas para ajudar seus desenvolvedores de software a escrever e testar códigos.
A empresa de consultoria de gestão Bain & Company anunciou no início deste ano que estava integrando as ferramentas generativas da OpenAI em seus sistemas de gestão.
Outras companhias demonstraram otimismo com o poder da IA, dizendo que acreditam que ela pode substituir uma parte significativa de sua força de trabalho humana. Na quinta-feira (18), a empresa de telecomunicação britânica BT disse que planeja substituir pelo menos 10 mil funcionários – a maioria com funções de atendimento ao cliente e gerenciamento de rede – por ferramentas com tecnologia de IA na próxima década. No início deste mês, o CEO da IBM, Arvind Krishna, disse que a empresa deixará de contratar humanos para trabalhos que a IA pode realizar.
(traduzido por Fernanda de Almeida)