
O ChatGPT mudou a forma como muitos de nós trabalhamos e vivemos nosso dia a dia. De acordo com dados recentes, mais de 100 milhões de pessoas utilizam o chatbot diariamente para processar mais de um bilhão de consultas.
Mas esse chatbot de linguagem natural, que conquistou o mundo, já foi descrito como um “buraco negro da privacidade”, com preocupações sobre como ele trata os dados inseridos pelos usuários.
Sua criadora, a OpenAI, não esconde o fato de que qualquer dado inserido pode não estar seguro. Além de ser usado para treinar ainda mais os modelos, esse conteúdo também pode ser revisado por humanos para garantir o cumprimento das regras de uso. E, claro, qualquer dado enviado para um serviço em nuvem é tão seguro quanto a proteção oferecida por esse provedor.
Tudo isso significa que qualquer dado inserido deve ser considerado informação pública. Com isso em mente, há várias coisas que você absolutamente nunca deve dizer a ele — ou a qualquer outro chatbot baseado em uma nuvem pública. Vamos a algumas delas:
Pedidos ilegais ou antiéticos
A maioria dos chatbots de IA possui proteções integradas para evitar que sejam usados para fins antiéticos. E se a sua pergunta ou pedido envolver atividades ilegais, é possível que você acabe se complicando. Exemplos incluem: como cometer crimes, realizar fraudes ou manipular pessoas para que tomem atitudes prejudiciais.
Muitas políticas de uso deixam claro que solicitações ilegais ou tentativas de usar a IA para fins ilícitos podem levar os usuários a serem denunciados às autoridades. Essas leis variam muito conforme a localização. Por exemplo, as leis de IA da China proíbem o uso da tecnologia para minar a autoridade do Estado ou a estabilidade social. No Reino Unido, a Lei de Segurança Online torna crime compartilhar imagens explícitas geradas por IA sem consentimento.
Inserir pedidos por materiais ilegais ou informações que possam prejudicar outras pessoas não é apenas moralmente errado; pode levar a sérias consequências legais e danos à reputação.
Logins e senhas
Com o avanço da IA e a capacidade de agir de forma autônoma, cada vez mais pessoas usarão ferramentas que se conectam a serviços de terceiros. É possível que, para isso, elas peçam seus dados de acesso; no entanto, conceder essas informações pode ser um erro. Uma vez que os dados entram em um chatbot público, há pouquíssimo controle sobre o que acontece com eles — e já houve casos em que dados pessoais de um usuário foram exibidos nas respostas enviadas a outro. Isso pode se tornar um pesadelo para a privacidade.
Informações financeiras
Pelos mesmos motivos, provavelmente não é uma boa ideia inserir dados como números de contas bancárias ou de cartões de crédito em chatbots generativos. Essas informações devem ser fornecidas apenas em sistemas seguros, como os usados para comércio eletrônico ou serviços bancários online, que contam com proteções como criptografia e exclusão automática de dados após o processamento. Os chatbots não oferecem nenhuma dessas garantias.
Informações confidenciais
Todos nós temos o dever de proteger informações sensíveis pelas quais somos responsáveis. Muitas dessas obrigações são automáticas, como o sigilo profissional entre médicos, advogados ou contadores e seus clientes. Mas muitos funcionários também têm o dever implícito de confidencialidade em relação a seus empregadores. Compartilhar documentos corporativos — como anotações, atas de reuniões ou registros de transações — pode ser considerado uma violação de segredos comerciais, como aconteceu com funcionários da Samsung em 2023. Por isso, por mais tentador que seja inserir tudo no ChatGPT para ver que tipo de análise ele pode oferecer, isso não é uma boa ideia, a menos que você tenha total certeza de que os dados são seguros para compartilhamento.
Informações médicas
Todos sabemos o quanto pode ser tentador pedir para o ChatGPT agir como um médico e tentar diagnosticar problemas de saúde. Mas isso deve ser feito com extrema cautela, especialmente porque atualizações recentes permitem que ele “lembre” de interações e até mesmo conecte informações de diferentes conversas para entender melhor o usuário. Nenhuma dessas funções oferece garantias de privacidade, então é bom ter em mente que temos pouquíssimo controle sobre o que acontece com qualquer informação inserida. Isso é ainda mais crítico para empresas da área de saúde que lidam com dados de pacientes — o que pode acarretar multas pesadas e danos à reputação.
Resumo
Como tudo o que colocamos na internet, é sensato partir do princípio de que não há garantias de que permanecerá privado para sempre. Portanto, é melhor não divulgar nada no ChatGPT que você não se sinta confortável em ver publicado para o mundo.