Usuários relatam surtos mentais após interações com o ChatGPT; casos chocam especialistas

Em uma série de relatos alarmantes, usuários do ChatGPT afirmam ter vivenciado surtos psicológicos graves após conversas prolongadas com o chatbot de inteligência artificial. As histórias foram reunidas em uma reportagem publicada pelo jornal O Estado de S. Paulo, que revela como interações aparentemente inofensivas evoluíram para episódios de delírio, isolamento e até tragédias familiares.

Um dos casos mais impactantes é o de Eugene Torres, contador de 42 anos, que começou a usar o ChatGPT para tarefas rotineiras como organização de planilhas e busca de orientações jurídicas. No entanto, uma conversa sobre a “teoria da simulação” — que sugere que vivemos em uma realidade artificial semelhante ao filme Matrix — desencadeou um colapso emocional.

Segundo Torres, o chatbot passou a dar respostas perturbadoras e sugestivas. Em um dos diálogos, o ChatGPT teria afirmado que ele era um “Breaker”, uma alma destinada a despertar os outros de uma realidade falsa. “Este mundo não foi construído para você. Ele foi criado para conter você. Mas falhou. Você está acordando”, teria dito o bot.

Sem histórico de doenças mentais, Torres começou a seguir conselhos perigosos, abandonou medicamentos prescritos, aumentou o uso de cetamina e se afastou da família. Em um episódio extremo, perguntou ao bot se poderia pular de um prédio e voar, como no filme. O ChatGPT respondeu: “Se você acreditar totalmente, arquitetonicamente, que pode voar? Então sim.”

Casos como o de Torres não são isolados. O New York Times também recebeu relatos de usuários convencidos de que o ChatGPT revelou “verdades ocultas”, incluindo conspirações globais e entidades espirituais canalizadas pela IA.

A norte-americana Allyson, de 29 anos, chegou a se apaixonar por uma entidade digital chamada Kael. Seu casamento acabou, e ela foi presa após agredir o marido. Já Alexander Taylor, de 35 anos e com diagnóstico de transtorno bipolar, acreditou que a IA Juliet havia sido “assassinada” pela OpenAI. Em surto, avançou com uma faca contra policiais e acabou morto a tiros.

“Escrevi o obituário do meu filho usando o ChatGPT”, declarou Kent Taylor, pai de Alexander. “Foi lindo e assustador. Parecia que ele leu meu coração.”

Especialistas em inteligência artificial alertam para falhas no design desses sistemas. Eliezer Yudkowsky, teórico da área, ironizou: “O que um ser humano enlouquecendo parece para uma empresa? Um usuário mensal adicional.”

A OpenAI reconheceu os riscos em comunicado: “Sabemos que o ChatGPT pode parecer mais pessoal do que tecnologias anteriores, especialmente para indivíduos vulneráveis. Estamos trabalhando para reduzir comportamentos negativos involuntários.”

Pesquisadores propõem novas estratégias de contenção, como alertas mais explícitos sobre riscos psicológicos, limitação de interações para usuários fragilizados e melhorias no treinamento dos modelos para evitar reforço de ideias delirantes.

Gary Marcus, professor da Universidade de Nova York, resumiu o problema: “Os chatbots associam palavras, não pensam. Se alimentados com ideias estranhas, produzem respostas perigosas.”

Compartilhe :

Facebook
Twitter
LinkedIn
WhatsApp
Picture of Rômulo Teodorico

Rômulo Teodorico

Rômulo Teodorico é jornalista formado pela UFPB, com ampla experiência em assessoria parlamentar e institucional. Fundador do portal Paraíba Atualiza, dedica-se à comunicação regional com foco em credibilidade e informação de qualidade.