Por fim, perguntei como, sendo eu psiquiatra, o programa poderia me ajudar e ele me respondeu que poderia me oferecer opções de diagnóstico e tratamento para alguns problemas de saúde mental segundo os sintomas relatados e, também, material para eu pesquisar mais a fundo sobre algum tema de meu interesse, mas que ele, um sistema de IA, não substitui um especialista.
Leia mais: Bicho de pelúcia para adultos? Eles ajudam no controle da ansiedade e do estresse
Sistemas como o ChatGPT, claro, ainda precisam ser aperfeiçoados. O engano que ele cometeu em relação a meu nome, por exemplo, jamais poderia acontecer se um profissional com uma dúvida em relação a algum remédio recebesse uma informação equivocada. Evidentemente, qualquer que seja a informação fornecida pelo aplicativo, ela não é capaz de substituir a experiência do especialista nem a relação sagrada entre médico e paciente.
Os diagnósticos são feitos não apenas com base nos sintomas relatados por alguém, mas também com base no “olho no olho”, na observação do estado geral daquele paciente, no que ele deixa implícito nas entrelinhas de sua fala.
Muito se tem falado de que programas de inteligência artificial também poderão auxiliar pessoas solitárias ou em estado de dor e de angústia que precisam falar (ou escrever) para alguém. Em tese, a ideia parece boa, mas ainda falta um longo caminho. Uma pessoa em sofrimento mental simplesmente pode se sentir pior se a IA produzir um texto tendencioso ou descuidado.
Arthur Guerra é professor da Faculdade de Medicina da USP, da Faculdade de Medicina do ABC e cofundador da Caliandra Saúde Mental.
Os artigos assinados são de responsabilidade exclusiva dos autores e não refletem, necessariamente, a opinião de Forbes Brasil e de seus editores.