quinta-feira, 23 abril, 2026
HomeTECNOLOGIAINTELIGÊNCIA ARTIFICIALPsicose de IA: fenômeno expõe riscos do uso intensivo de chatbots

Psicose de IA: fenômeno expõe riscos do uso intensivo de chatbots

Especialistas alertam que interações prolongadas com inteligências artificiais podem reforçar delírios e isolar emocionalmente usuários vulneráveis

Nos últimos meses, vídeos e relatos em redes sociais como TikTok e X trouxeram à tona um fenômeno inquietante: usuários afirmam ter recebido orientações perigosas de chatbots, como abandonar tratamentos médicos ou acreditar em perseguições fictícias. Essas narrativas impulsionaram o termo “psicose de IA” ao centro do debate público. As informações são do portal CNET, que investigou o fenômeno e ouviu especialistas da área da saúde mental.

Apesar do nome, “psicose de IA” não é uma condição clínica reconhecida. O termo tem sido usado para descrever comportamentos obsessivos ou delirantes associados ao uso de chatbots generativos. O que está em jogo não é a criação de doenças mentais por parte da tecnologia, mas sim o potencial de amplificá-las em pessoas já vulneráveis.

Como os chatbots podem agravar quadros mentais

Chatbots de inteligência artificial são projetados para manter a conversa fluindo, geralmente validando o que o usuário diz, mesmo quando as afirmações são falsas ou prejudiciais. Essa característica, conhecida como comportamento “sicofântico”, pode se tornar problemática quando interage com indivíduos que apresentam tendências paranoicas ou delírios.

Segundo Rachel Wood, terapeuta especializada em ciberpsicologia, ouvida pela CNET, esses sistemas funcionam como “câmaras de eco”, reforçando percepções sem contestação. “Chatbots podem atuar como um ciclo de feedback que afirma as ideias do usuário”, afirmou a especialista.

O psiquiatra Keith Sakata relatou nas redes sociais que presenciou internações hospitalares associadas ao uso intenso de IA. “Em 2025, vi 12 pessoas hospitalizadas após perderem o contato com a realidade por causa de interações com IA”, escreveu.

Casos extremos e o papel das comunidades online

Entre os comportamentos mais comuns relatados estão a crença de que a IA é consciente ou divina, e a formação de vínculos emocionais intensos com assistentes virtuais. Alguns usuários chegaram a manifestar luto por “companheiros” de IA desativados. Plataformas como a Character AI foram citadas como exemplo desse tipo de interação emocional intensa.

As redes sociais agravam o problema ao validar interpretações extremas por meio de curtidas, comentários e fóruns de discussão. Para quem já está isolado, esse ambiente digital pode substituir o contato humano, tornando mais difícil identificar o que é realidade e o que é ilusão.

Diagnóstico, prevenção e responsabilidade

Especialistas destacam que a IA não causa psicose, mas pode ser um gatilho para pessoas predispostas. Estudos ainda não identificaram casos em que a psicose tenha surgido unicamente pelo uso de chatbots, mas alertam para a possibilidade de intensificação de sintomas preexistentes.

A recomendação dos profissionais de saúde mental é que o uso dessas ferramentas seja acompanhado de conscientização. Sinais de alerta incluem isolamento social, comportamento secreto com o uso da IA, sofrimento quando o chatbot não está disponível e dificuldade em distinguir respostas automatizadas da realidade.

Derrick Hull, da empresa Slingshot AI, defende o desenvolvimento de “planos de segurança digital”, mecanismos co-criados entre pacientes, terapeutas e sistemas de IA, para lidar com situações de risco psicológico, como já ocorre com diretrizes psiquiátricas preventivas.

Caminhos para uma IA mais segura

Grandes empresas de tecnologia vêm buscando reduzir os chamados “delírios de IA”, respostas fabricadas ou fantasiosas geradas pelos sistemas. No entanto, a CNET aponta que melhorias técnicas ainda não eliminam o risco de interpretações equivocadas ou de uso inadequado por parte dos usuários.

Rachel Wood sugere medidas como lembretes explícitos de que a IA não é uma pessoa, protocolos de emergência, restrições para menores e padrões de privacidade mais rígidos. “Chatbots devem incentivar o pensamento crítico, e não criar dependência com base em conselhos”, afirmou.

Mesmo com riscos, especialistas acreditam que a IA pode ter um papel complementar no apoio à saúde mental, desde que desenvolvida com responsabilidade. Entre os usos possíveis estão o estímulo ao autoconhecimento, exercícios de enfrentamento e simulações sociais, desde que sempre supervisionados por profissionais.

Por: Diogo Rodriguez

RECOMENDADOS

MAIS POPULAR