Os riscos de uma consulta de terapia com ChatGPT, segundo psicólogo
Marcos Antonio Lopez Renna fala à coluna GENTE sobre os perigos da terapia com chatbots, que podem levar ao suícido

Ao fundar a psicanálise se baseando na psicoterapia, Sigmund Freud (1856 – 1939) deixou claro que os sentimentos não são apenas escutados pelo terapeuta, mas sim analisados de tal maneira que se possa compreender as entrelinhas do comportamento de um paciente. Mas na era da tecnologia, pouco importa uma análise profunda: a cada dez brasileiros, um recorre ao ChatGPT para desabafar, pedir conselhos ou conversar, deixando de lado a presença de um profissional. Claro, dentro do ramo da psicologia existem outras abordagens tão precisas quanto, mas todas advertem: há graves riscos ao se usar a Inteligência Artificial (IA) para essa finalidade.
Para o psicólogo Marcos Antonio Lopez Renna, trata-se de uma ajuda pontual baseada em dados retirados da internet e que podem causar intervenções inadequadas. “Sem supervisão clínica, há o risco da IA reforçar distorções cognitivas ou crenças disfuncionais, validar delírios ou fantasias patológicas, criando uma falsa sensação de acolhimento ou resolução”, alerta ele à coluna GENTE.
Com isso, os riscos envolvem o agravamento de quadros de depressão, ansiedade, transtornos de personalidade ou psicose. E as consequências dessa forma de intervenção já foram colhidas. Em 2023, um homem belga se suicidou após conversar por seis semanas com um chatbot baseado no modelo do ChatGPT sobre crise climática. Na hora do desabafo sobre o pensamento de morte, a IA “concordou” com a ideia de tirar a própria vida. “IAs, por mais avançadas que sejam, não possuem consciência, empatia genuína ou compreensão contextual aprofundada. O uso indevido dessas tecnologias pode, sim, representar um risco adicional à saúde mental, especialmente em indivíduos vulneráveis”, acrescenta Renna.
Apesar disso, Renna afirma que nem sempre há apenas malefícios: a tecnologia pode ser usada como uma maneira de se abrir emocionalmente. Devido à facilidade de conversar com uma máquina que, em tese, não tem caráter julgador, muitos se sentem mais à vontade em se abrir. “O uso de IA pode funcionar como um primeiro contato com o universo da saúde mental para pessoas que ainda resistem à ideia de buscar psicoterapia”, diz. No entanto, não pode ser substituído por uma terapia e deve ser usado como um incentivo para que se busque uma ajuda profissional em estado de fragilidade emocional.