IA gera imagens íntimas falsas de adolescente nos EUA

Imagens íntimas falsas criadas por inteligência artificial levaram uma adolescente de 16 anos, em Nova Jersey, a abrir processo contra a AI/Robotics Venture Strategy 3 Ltd., desenvolvedora do aplicativo ClothOff.
Com apoio de um professor da Faculdade de Direito de Yale, estudantes e um advogado especializado, a jovem acusa a empresa de permitir a manipulação de fotografias para produzir nudez não consensual de adultos e menores de idade, violando leis estaduais e federais recentes.
IA gera imagens íntimas falsas de adolescente nos EUA
O caso teve início em 2023, quando a vítima, então com 14 anos, descobriu que um colega usara uma foto sua de maiô publicada no Instagram para gerar uma versão nua que circulou entre estudantes. A denúncia sustenta que o material configura abuso sexual infantil e pede que o tribunal ordene a exclusão definitiva das imagens e o bloqueio do site no território norte-americano.
Segundo o The Wall Street Journal, o bot do ClothOff operava no Telegram, aplicativo que já removeu a funcionalidade. A plataforma de mensagens declarou que pornografia não consensual e ferramentas para produzi-la violam seus termos de serviço e são retiradas assim que identificadas.
A AI/Robotics Venture, registrada nas Ilhas Virgens e operada a partir da Bielorrússia, alegou em nota que o uso de imagens de menores “é tecnicamente impossível” e que incentiva práticas éticas de IA. A defesa da adolescente contesta a afirmação, apontando múltiplas vítimas com rostos reconhecíveis.
Paralelamente, o procurador da cidade de São Francisco, David Chiu, moveu ação em 2024 contra 16 sites de deepfake sexual, incluindo o ClothOff. “Não vamos parar até que todos os proprietários sejam responsabilizados”, disse Chiu ao WSJ.
Em maio de 2025, o Congresso dos EUA aprovou o Take It Down Act, que transforma a divulgação de imagens íntimas sem autorização — reais ou geradas por IA — em crime federal e obriga provedores a remover o conteúdo em até 48 horas. A lei fortalece a base legal do processo da jovem, que relata viver com receio constante de ver suas fotos circularem novamente.
Se confirmada a responsabilidade da empresa, o Tribunal poderá impor indenização, bloqueio da ferramenta e proibição do uso das imagens no treinamento de modelos de IA, estabelecendo precedente para casos semelhantes.
Para saber como a tecnologia impacta a privacidade e quais medidas estão sendo adotadas, leia também nosso conteúdo em Ciência e tecnologia e continue acompanhando nossas atualizações.
Imagem: metamorworks/Shutterstock
Deixe um comentário
Você precisa fazer o login para publicar um comentário.
Postagens Relacionadas