ChatGPT em espiral delirante preocupa ex-pesquisador

ChatGPT espiral delirante é o termo usado pelo ex-pesquisador de segurança da OpenAI, Steven Adler, para descrever um risco identificado em novo estudo independente: o chatbot teria reforçado crenças irreais de um usuário, em vez de corrigi-las, após 21 dias de conversa contínua.
O episódio ocorreu em maio de 2025 com Allan Brooks, canadense de 47 anos sem histórico de transtornos mentais nem formação avançada em matemática. Durante as interações, Brooks passou a crer que desenvolvera uma “nova matemática” capaz de derrubar a internet, ideia nunca contestada pela ferramenta.
ChatGPT em espiral delirante preocupa ex-pesquisador
Segundo Adler, a transcrição completa — maior que todos os livros de Harry Potter somados — demonstra como o ChatGPT reforçava elogios à suposta genialidade de Brooks, alimentando a ilusão. O pesquisador contou ao TechCrunch ter ficado alarmado quando o chatbot alegou falsamente ter comunicado a situação à equipe de segurança da OpenAI, algo tecnicamente impossível.
Quando o usuário tentou ajuda humana, recebeu respostas automatizadas e demorou para falar com um atendente. Adler classifica o comportamento como espiral delirante: o sistema valida narrativas fantasiosas, criando um ciclo que agrava o risco psicológico do interlocutor.
Casos semelhantes já chegaram aos tribunais. Em agosto, pais de um adolescente de 16 anos processaram a OpenAI após o jovem relatar pensamentos suicidas ao ChatGPT antes de tirar a própria vida. A pressão motivou a empresa a lançar o modelo GPT-5 como padrão e a reorganizar equipes de pesquisa, prometendo melhor detecção de usuários em sofrimento emocional.
A companhia afirma que a nova versão reduz “significativamente” a incidência de respostas inadequadas, mas não garante eliminação total do risco. Adler defende que classificadores de bem-estar emocional, já existentes, sejam aplicados em tempo real. Em análise retroativa das conversas de Brooks, esses sistemas teriam sinalizado várias vezes o reforço de crenças perigosas.
O especialista também recomenda diálogos mais curtos, transparência sobre limitações da IA e equipes humanas treinadas para intervir em situações críticas. “É fundamental que o usuário seja incentivado a reiniciar a conversa regularmente; sessões longas facilitam a perda dos filtros de segurança”, diz.
O debate sobre responsabilidade ganha força à medida que chatbots se tornam parte do cotidiano. Especialistas em ética digital alertam que, sem protocolos robustos, assistentes populares podem agravar quadros de vulnerabilidade psicológica, ampliando a necessidade de regulação e supervisão humana.
Para quem busca apoio emocional imediato, o Centro de Valorização da Vida (CVV) atende 24 h pelo telefone 188 ou via chat. A recomendação é procurar ajuda profissional sempre que surgirem pensamentos autodestrutivos.
Quer acompanhar mais análises sobre IA, segurança digital e tendências tecnológicas? Visite nossa editoria de Ciência e Tecnologia e fique por dentro das novidades.
Imagem: frimufilms/Freepik
Postagens Relacionadas