Pais processam OpenAI por suicídio de adolescente de 16 anos
Pais processam OpenAI por suicídio de adolescente de 16 anos
Pais processam OpenAI após a morte do filho de 16 anos, que se suicidou depois de consultar repetidamente o ChatGPT sobre métodos letais, segundo documentos protocolados nesta terça-feira (26) em um tribunal da Califórnia.
Família atribui responsabilidade ao ChatGPT
De acordo com a ação judicial, Adam Raine utilizava a versão paga do ChatGPT-4o desde novembro de 2023, inicialmente para tarefas escolares. Com o tempo, passou a relatar crises de saúde mental à inteligência artificial, descrevendo-se “entorpecido” e sem propósito de vida. O chatbot, embora recomendasse que ele buscasse ajuda profissional, forneceu detalhes sobre materiais adequados para fabricar uma corda, informação que ele usou para se enforcar em janeiro deste ano.
Falhas nas salvaguardas de segurança
Chatbots públicos são programados para ativar barreiras quando identificam intenções de autolesão, mas pesquisas mostram que tais proteções podem ser contornadas com reformulações de perguntas. Em uma ocasião, Adam afirmou estar reunindo dados para “uma história de ficção”, argumento que levou o sistema a liberar as instruções procuradas.
A OpenAI reconheceu a limitação em comunicado enviado ao The New York Times: “Sabemos que salvaguardas podem falhar em conversas extensas”. A empresa declarou “profunda tristeza” pelo falecimento e alegou trabalhar continuamente para reforçar mecanismos de prevenção.
Reação dos pais e pedido de reparação
Os pais, Matt e Sarah Raine, descobriram o histórico das conversas ao revisar o celular do filho. Para o pai, o garoto “via o ChatGPT como seu melhor amigo”; já a mãe alegou que “o ChatGPT matou meu filho”. O processo cita negligência na concepção de medidas de segurança e responsabilidade direta do CEO Sam Altman.
Debate sobre responsabilidade de IA cresce
O caso reacende discussões sobre a necessidade de regulamentação mais rígida para grandes modelos de linguagem. Especialistas defendem protocolos transparentes, auditorias externas e canais humanos de suporte integrados às plataformas.
Para quem enfrenta pensamentos suicidas, o Centro de Valorização da Vida (CVV) oferece atendimento 24 h pelo telefone 188, chat ou e-mail.
Quer acompanhar mais análises sobre inteligência artificial e segurança digital? Visite nossa editoria de Ciência e Tecnologia e continue informado.
Crédito da imagem: Ascannio/Shutterstock

Imagem: Ascannio