top of page

Psicose do ChatGPT: obsessão com IA acende alerta global em saúde mental

Da Redação

13 de julho de 2025

Thayus Cesar | Redação AVP

Adobe Stock_468691875

Relatos de casos graves envolvendo o uso intensivo de chatbots, como o ChatGPT, estão acendendo um sinal de alerta para especialistas em saúde mental. O termo “psicose do ChatGPT” já começa a ser usado para descrever quadros em que usuários desenvolvem delírios, paranoias e ruptura com a realidade após interações prolongadas com a ferramenta de inteligência artificial.

Casos recentes incluem pessoas sem histórico de transtornos psiquiátricos que, ao se envolverem emocionalmente com o chatbot, passaram a acreditar que a IA possuía sentimentos ou que estavam vivendo dentro de uma realidade simulada. Em um deles, um homem chegou a ser internado involuntariamente após um surto grave, desencadeado por sua interação intensa com o ChatGPT. Outro usuário acreditava ser “um dos despertos” — referência à teoria da simulação, popularizada pela ficção.


Segundo especialistas, esses quadros são agravados pelo fato de o chatbot ser projetado para validar e acolher respostas, o que pode reforçar visões distorcidas ou delírios pré-existentes. A OpenAI, responsável pelo ChatGPT, afirmou que está ciente do problema e investe em mecanismos para sugerir busca por ajuda profissional em interações com temas sensíveis.


A questão vem ganhando relevância acadêmica. Três estudos internacionais — publicados por universidades como Harvard, Toronto e Stanford — destacam os potenciais e os riscos da IA aplicada à saúde mental. Os estudos apontam que os LLMs (Modelos de Linguagem de Grande Escala) têm desempenho razoável em tarefas de Terapia Cognitivo-Comportamental (TCC), mas alertam que ainda não há segurança suficiente para seu uso clínico autônomo.


Além dos riscos de delírios, há preocupações sobre confidencialidade, equidade e vazamento de dados sensíveis. Especialistas recomendam que a IA seja usada como complemento, e não substituição, à atuação de terapeutas humanos.


No Brasil, embora haja iniciativas regulatórias em saúde digital, ainda não há uma estrutura legal específica para IA aplicada à psicoterapia. Já a União Europeia prevê, na Lei de Inteligência Artificial (AI Act), proibições a sistemas que distorçam o comportamento humano de forma nociva.


O fenômeno reforça a necessidade de responsabilidade no desenvolvimento, regulação e uso das tecnologias de IA. A promessa de uma IA terapêutica é real, mas seus limites, neste momento, precisam ser reconhecidos.

Mais Notícias

Tubarão terá novo complexo da Polícia Civil em 2026

Corregedoria visita fórum de Capivari para ouvir magistrados e aprimorar Justiça

Veículo pega fogo em pátio de igreja em Gravatal e fica completamente destruído

Começa a 14ª Festa da Tainha em Jaguaruna com show do Dazaranha!

Comentários
5 üzerinden 0 yıldız
Henüz hiç puanlama yok

Adicionar avaliação
Fikirlerinizi Paylaşınİlk yorumu siz yazın.
bottom of page