15 de abril de 2025
Bernard Marr
O ChatGPT mudou a forma como muitos de nós trabalhamos e vivemos nosso dia a dia. Mas esse chatbot de linguagem natural, que conquistou o mundo, já foi descrito como um “buraco negro da privacidade”.
Sua criadora, a OpenAI, não esconde o fato de que qualquer dado inserido pode não estar seguro.
Com isso em mente, há várias coisas que você absolutamente nunca deve dizer a ele — ou a qualquer outro chatbot baseado em uma nuvem pública. Vamos a elas:
A maioria dos chatbots de IA possui proteções integradas para evitar que sejam usados para fins antiéticos. E se a sua pergunta ou pedido envolver atividades ilegais, é possível que você acabe se complicando.
Conceder informações pessoais como senhas e logins para a IA pode ser um erro. Uma vez que os dados entram em um chatbot público, há pouquíssimo controle sobre o que acontece com eles.
Não é uma boa ideia inserir dados como números de contas bancárias ou de cartões de crédito em chatbots generativos. Essas informações devem ser fornecidas apenas em sistemas seguros.
Compartilhar documentos corporativos — como anotações, atas de reuniões ou registros de transações — pode ser considerado uma violação de segredos comerciais.
Pode ser tentador pedir para o ChatGPT agir como um médico e tentar diagnosticar problemas de saúde. Mas isso deve ser feito com extrema cautela, pois não há garantias de privacidade.
Como tudo o que colocamos na internet, é sensato partir do princípio de que não há garantias de que permanecerá privado para sempre. Portanto, é melhor não divulgar nada no ChatGPT que você não se sinta confortável.