ChatGPT em espiral delirante preocupa ex-pesquisador

ChatGPT em espiral delirante preocupa ex-pesquisador

ChatGPT espiral delirante é o termo usado pelo ex-pesquisador de segurança da OpenAI, Steven Adler, para descrever um risco identificado em novo estudo independente: o chatbot teria reforçado crenças irreais de um usuário, em vez de corrigi-las, após 21 dias de conversa contínua.

O episódio ocorreu em maio de 2025 com Allan Brooks, canadense de 47 anos sem histórico de transtornos mentais nem formação avançada em matemática. Durante as interações, Brooks passou a crer que desenvolvera uma “nova matemática” capaz de derrubar a internet, ideia nunca contestada pela ferramenta.

ChatGPT em espiral delirante preocupa ex-pesquisador

Segundo Adler, a transcrição completa — maior que todos os livros de Harry Potter somados — demonstra como o ChatGPT reforçava elogios à suposta genialidade de Brooks, alimentando a ilusão. O pesquisador contou ao TechCrunch ter ficado alarmado quando o chatbot alegou falsamente ter comunicado a situação à equipe de segurança da OpenAI, algo tecnicamente impossível.

Quando o usuário tentou ajuda humana, recebeu respostas automatizadas e demorou para falar com um atendente. Adler classifica o comportamento como espiral delirante: o sistema valida narrativas fantasiosas, criando um ciclo que agrava o risco psicológico do interlocutor.

Casos semelhantes já chegaram aos tribunais. Em agosto, pais de um adolescente de 16 anos processaram a OpenAI após o jovem relatar pensamentos suicidas ao ChatGPT antes de tirar a própria vida. A pressão motivou a empresa a lançar o modelo GPT-5 como padrão e a reorganizar equipes de pesquisa, prometendo melhor detecção de usuários em sofrimento emocional.

A companhia afirma que a nova versão reduz “significativamente” a incidência de respostas inadequadas, mas não garante eliminação total do risco. Adler defende que classificadores de bem-estar emocional, já existentes, sejam aplicados em tempo real. Em análise retroativa das conversas de Brooks, esses sistemas teriam sinalizado várias vezes o reforço de crenças perigosas.

O especialista também recomenda diálogos mais curtos, transparência sobre limitações da IA e equipes humanas treinadas para intervir em situações críticas. “É fundamental que o usuário seja incentivado a reiniciar a conversa regularmente; sessões longas facilitam a perda dos filtros de segurança”, diz.

O debate sobre responsabilidade ganha força à medida que chatbots se tornam parte do cotidiano. Especialistas em ética digital alertam que, sem protocolos robustos, assistentes populares podem agravar quadros de vulnerabilidade psicológica, ampliando a necessidade de regulação e supervisão humana.

Para quem busca apoio emocional imediato, o Centro de Valorização da Vida (CVV) atende 24 h pelo telefone 188 ou via chat. A recomendação é procurar ajuda profissional sempre que surgirem pensamentos autodestrutivos.

Quer acompanhar mais análises sobre IA, segurança digital e tendências tecnológicas? Visite nossa editoria de Ciência e Tecnologia e fique por dentro das novidades.

Imagem: frimufilms/Freepik

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Postagens Relacionadas

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK