Tech

PERIGOS DO CHATGPT: 5 COISAS QUE VOCÊ NUNCA DEVE DIZER À IA

15 de abril  de 2025

Bernard Marr

O ChatGPT mudou a forma como muitos de nós trabalhamos e vivemos nosso dia a dia. Mas esse chatbot de linguagem natural, que conquistou o mundo, já foi descrito como um “buraco negro da privacidade”.

Sua criadora, a OpenAI, não esconde o fato de que qualquer dado inserido pode não estar seguro.

Com isso em mente, há várias coisas que você absolutamente nunca deve dizer a ele — ou a qualquer outro chatbot baseado em uma nuvem pública. Vamos a elas:

A maioria dos chatbots de IA possui proteções integradas para evitar que sejam usados para fins antiéticos. E se a sua pergunta ou pedido envolver atividades ilegais, é possível que você acabe se complicando.

1 - Pedidos ilegais ou antiéticos

Conceder  informações pessoais como senhas e logins para a IA pode ser um erro. Uma vez que os dados entram em um chatbot público, há pouquíssimo controle sobre o que acontece com eles.

2 - Logins e senhas

Não é uma boa ideia inserir dados como números de contas bancárias ou de cartões de crédito em chatbots generativos. Essas informações devem ser fornecidas apenas em sistemas seguros.

3 -Informações financeiras

Compartilhar documentos corporativos — como anotações, atas de reuniões ou registros de transações — pode ser considerado uma violação de segredos comerciais.

4 - Informações confidenciais

Pode ser tentador pedir para o ChatGPT agir como um médico e tentar diagnosticar problemas de saúde. Mas isso deve ser feito com extrema cautela, pois não há garantias de privacidade.

5 -  Informações médicas

Como tudo o que colocamos na internet, é sensato partir do princípio de que não há garantias de que permanecerá privado para sempre. Portanto, é melhor não divulgar nada no ChatGPT que você não se sinta confortável.