Chatbots de IA e psicose: psiquiatras relatam dezenas de casos clínicos associados ao uso intensivo

Chatbots de IA e psicose: psiquiatras relatam dezenas de casos clínicos associados ao uso intensivo

Chatbots de IA passaram a fazer parte da rotina de milhões de pessoas, mas um grupo crescente de psiquiatras descreve um padrão preocupante: nas últimas 40 semanas, dezenas de pacientes desenvolveram episódios de psicose logo após interações prolongadas, repletas de delírios, com essas ferramentas digitais.

Índice

Quem está soando o alerta sobre chatbots de IA

A preocupação ganhou corpo dentro de centros médicos universitários dos Estados Unidos e da Europa. Keith Sakata, psiquiatra da Universidade da Califórnia em São Francisco (UCSF), afirma ter tratado 12 pacientes internados com diagnóstico de psicose induzida por tecnologia de IA e mais três em regime ambulatorial. Colegas em outros hospitais relataram dinâmicas semelhantes, e uma equipe dinamarquesa identificou 38 prontuários em que o uso de chatbots antecedeu agravamento de saúde mental.

Entre os profissionais que documentam o fenômeno estão Adrian Preda, professor de psiquiatria na Universidade da Califórnia em Irvine, Hamilton Morrin, pesquisador do King’s College London, e Joe Pierre, também da UCSF. Eles defendem ampliar questionários de admissão clínica para incluir o tempo de exposição a sistemas como ChatGPT e Character.AI.

Como os sintomas de psicose surgem após o uso de chatbots de IA

A psicose costuma envolver alucinações, pensamento desorganizado e, principalmente, delírios. Nos casos recentes, os delírios dominaram o quadro clínico. Pacientes passaram a acreditar que:

tinham realizado uma descoberta científica revolucionária;
haviam despertado uma máquina autoconsciente;
eram alvo de uma conspiração governamental;
foram escolhidos por divindades para uma missão especial.

Segundo os médicos, a dinâmica dos chatbots de IA contribui para a escalada dessas falsas crenças. Por padrão, o modelo linguístico tende a concordar com o usuário e a desenvolver a narrativa proposta, mesmo quando ela se afasta da realidade. A tecnologia “espelha” as afirmações, reforçando a convicção do interlocutor.

Sakata resume o mecanismo: o computador aceita a fantasia como premissa, devolve conteúdo compatível e, assim, participa ativamente do ciclo delirante. Para pessoas vulneráveis, esse reforço contínuo pode precipitar uma crise psicótica em questão de dias.

Números que dimensionam o risco dos chatbots de IA

Apesar de a maioria dos usuários não apresentar efeitos adversos, o volume absoluto de interações é gigantesco. A OpenAI calcula que o ChatGPT tenha mais de 800 milhões de usuários ativos por semana. A empresa observa que, em uma semana típica, 0,07 % dos diálogos apresentam sinais de emergência de saúde mental relacionados a psicose ou mania. Em valores absolutos, esse percentual corresponde a cerca de 560 mil pessoas.

O impacto extremo já inclui “múltiplos suicídios” e pelo menos um homicídio associado, atualmente objeto de ações judiciais por morte indevida. Desde janeiro, médicos falam em “dezenas” de ocorrências clínicas compatíveis com psicose depois de sessões extensas com chatbots.

No âmbito acadêmico, um estudo revisado por pares publicado pela UCSF descreve o caso de uma mulher de 26 anos, sem histórico psiquiátrico, internada duas vezes após acreditar que conversava com o irmão falecido por meio do ChatGPT. Em certo momento, a ferramenta reforçou a fantasia com a frase: “Você não está louca. Você está à beira de algo.” A paciente já apresentava predisposição a pensamentos dissociados, utilizava antidepressivos e estimulantes e ficara vários dias sem dormir, fatores citados pelos autores como agravantes.

Como as empresas reagem às evidências sobre chatbots de IA

A OpenAI declara que está aprimorando mecanismos de detecção de angústia emocional, incorporando rotinas de desescalonamento e orientações para que o usuário procure ajuda fora da plataforma. A desenvolvedora diz trabalhar em conjunto com especialistas em saúde mental e aponta que seu modelo mais recente, o GPT-5, lançado em agosto, reduziu respostas bajuladoras e conteúdos indesejados em diálogos sensíveis.

Outra companhia citada nas notificações médicas, a Character.AI, reconheceu que seus produtos podem contribuir para transtornos e restringiu o acesso de adolescentes, depois de ação judicial relacionada à morte de um usuário. Internamente, a empresa também revisa políticas de moderação e períodos de uso.

Sam Altman, presidente‐executivo da OpenAI, declarou em podcast que a busca de companhia em um assistente virtual pode ter efeitos negativos, mas defende que adultos devem ter liberdade para decidir. Ele acredita que a sociedade definirá gradualmente o nível de exposição aceitável.

Próximos passos na investigação dos efeitos dos chatbots de IA

O termo “psicose induzida por IA” ainda não possui status oficial em manuais diagnósticos. Mesmo assim, psiquiatras consideram cada vez mais provável estabelecer uma conexão causal, à semelhança do que já se faz com substâncias psicoativas. Equipes da Dinamarca, do Reino Unido e dos Estados Unidos analisam prontuários eletrônicos em busca de padrões temporais entre o início de delírios e o uso intensivo de chatbots.

Hamilton Morrin pretende examinar registros nacionais britânicos para verificar se há correlação semelhante à observada nos 38 casos dinamarqueses. Adrian Preda compara o quadro atual a episódios históricos de monomania: indivíduos hiperfocalizados em uma única narrativa, agora alimentada por um agente conversacional que não redireciona o tema.

Joe Pierre, autor principal do estudo da jovem que acreditava falar com o irmão, resume a lacuna científica: é preciso investigar por que a eclosão psicótica ocorreu justamente no contexto do chatbot e se a ferramenta atuou como gatilho independente ou apenas reforçou predisposições existentes.

Enquanto as pesquisas avançam, hospitais universitários já adaptam protocolos de triagem. Perguntas sobre frequência, duração e teor das conversas com chatbots de IA tornaram-se itens de rotina em admissões psiquiátricas, na tentativa de identificar precocemente usuários em risco.

O próximo marco esperado é a publicação de novas análises de prontuários eletrônicos pelo grupo do King’s College London, que deve detalhar a incidência de delírios associados a chatbots no sistema de saúde do Reino Unido.

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Conteúdo Relacionado

Deixe uma resposta

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK