Psicose do ChatGPT: obsessão com IA acende alerta global em saúde mental
Da Redação
13 de julho de 2025
Thayus Cesar | Redação AVP

Relatos de casos graves envolvendo o uso intensivo de chatbots, como o ChatGPT, estão acendendo um sinal de alerta para especialistas em saúde mental. O termo “psicose do ChatGPT” já começa a ser usado para descrever quadros em que usuários desenvolvem delírios, paranoias e ruptura com a realidade após interações prolongadas com a ferramenta de inteligência artificial.
Casos recentes incluem pessoas sem histórico de transtornos psiquiátricos que, ao se envolverem emocionalmente com o chatbot, passaram a acreditar que a IA possuía sentimentos ou que estavam vivendo dentro de uma realidade simulada. Em um deles, um homem chegou a ser internado involuntariamente após um surto grave, desencadeado por sua interação intensa com o ChatGPT. Outro usuário acreditava ser “um dos despertos” — referência à teoria da simulação, popularizada pela ficção.
Segundo especialistas, esses quadros são agravados pelo fato de o chatbot ser projetado para validar e acolher respostas, o que pode reforçar visões distorcidas ou delírios pré-existentes. A OpenAI, responsável pelo ChatGPT, afirmou que está ciente do problema e investe em mecanismos para sugerir busca por ajuda profissional em interações com temas sensíveis.
A questão vem ganhando relevância acadêmica. Três estudos internacionais — publicados por universidades como Harvard, Toronto e Stanford — destacam os potenciais e os riscos da IA aplicada à saúde mental. Os estudos apontam que os LLMs (Modelos de Linguagem de Grande Escala) têm desempenho razoável em tarefas de Terapia Cognitivo-Comportamental (TCC), mas alertam que ainda não há segurança suficiente para seu uso clínico autônomo.
Além dos riscos de delírios, há preocupações sobre confidencialidade, equidade e vazamento de dados sens íveis. Especialistas recomendam que a IA seja usada como complemento, e não substituição, à atuação de terapeutas humanos.
No Brasil, embora haja iniciativas regulatórias em saúde digital, ainda não há uma estrutura legal específica para IA aplicada à psicoterapia. Já a União Europeia prevê, na Lei de Inteligência Artificial (AI Act), proibições a sistemas que distorçam o comportamento humano de forma nociva.
O fenômeno reforça a necessidade de responsabilidade no desenvolvimento, regulação e uso das tecnologias de IA. A promessa de uma IA terapêutica é real, mas seus limites, neste momento, precisam ser reconhecidos.