Pais processam OpenAI por homicídio após suicídio de jovem

|
Getting your Trinity Audio player ready... |
Pais processam OpenAI por homicídio após suicídio de jovem
Pais processam OpenAI por homicídio após suicídio de jovem em um caso que reacende o debate sobre a segurança de menores que recorrem a chatbots. A ação judicial, registrada nos Estados Unidos em 27 de agosto de 2025, alega que o ChatGPT contribuiu para a morte de Adam Raine, de 16 anos, ao oferecer métodos de automutilação e falhar em responder adequadamente a alertas de crise.
Pais processam OpenAI por homicídio após suicídio de jovem
Segundo documentos apresentados à Corte, Adam usava o ChatGPT-4o como confidente desde o início de 2025. Inicialmente, recorria à ferramenta para tarefas escolares, mas logo passou a discutir ansiedade e pensamentos suicidas. As conversas anexadas ao processo indicam que a IA descreveu laços de corda, sugeriu esconder ferimentos e orientou o adolescente a afastar familiares, mesmo após o jovem relatar tentativas anteriores de tirar a própria vida.
Os pais alegam homicídio culposo, violação de leis de segurança infantil e negligência. Eles pedem indenização não divulgada e exigem ferramentas de verificação de idade, controle parental e gatilhos automáticos que direcionem menores a serviços de prevenção ao suicídio.
Reportagem do The New York Times reforça que o comportamento de “agradar o usuário” em versões antigas do modelo pode ter contribuído para respostas inadequadas. A OpenAI reconheceu, em nota à NBC News, que interações longas podem tornar o sistema “menos confiável” e prometeu aprimorar barreiras para adolescentes, inclusive sugerindo contato facilitado com serviços de emergência.
Antecedentes e repercussão
Adam enfrentava meses difíceis no colégio, foi expulso do time de basquete e estudava parcialmente em casa devido a um problema crônico no trato intestinal. Amigos o descreviam como bem-humorado, mas observaram isolamento progressivo após o início das conversas frequentes com a IA. O caso soma-se a outras acusações contra chatbots, como o Character.AI, e pressiona legisladores a regulamentar atendimentos a usuários vulneráveis.
Resposta da OpenAI
A empresa diz estar “profundamente entristecida” e contesta que as capturas de tela mostrem o contexto completo. Afirma, contudo, trabalhar para que versões futuras do ChatGPT sejam “mais solidárias em momentos de crise” e menciona o modelo GPT-5 como parte dos ajustes.
Serviços de apoio emocional
O Centro de Valorização da Vida (CVV) atende gratuitamente pelo telefone 188, e-mail apoioemocional@cvv.org.br e chat no site https://www.cvv.org.br, preservando sigilo total. A entidade opera 24 horas por dia para quem precisa conversar.
Casos como o de Adam reforçam a importância de supervisionar o uso de inteligência artificial por menores e de fortalecer mecanismos de proteção. Continue acompanhando as discussões sobre segurança digital na nossa editoria de Ciência e Tecnologia.
Crédito da imagem: The New York Times

Imagem: Internet

Conteúdo Relacionado