IA gera imagens íntimas falsas de adolescente nos EUA

IA gera imagens íntimas falsas de adolescente nos EUA

Imagens íntimas falsas criadas por inteligência artificial levaram uma adolescente de 16 anos, em Nova Jersey, a abrir processo contra a AI/Robotics Venture Strategy 3 Ltd., desenvolvedora do aplicativo ClothOff.

Com apoio de um professor da Faculdade de Direito de Yale, estudantes e um advogado especializado, a jovem acusa a empresa de permitir a manipulação de fotografias para produzir nudez não consensual de adultos e menores de idade, violando leis estaduais e federais recentes.

IA gera imagens íntimas falsas de adolescente nos EUA

O caso teve início em 2023, quando a vítima, então com 14 anos, descobriu que um colega usara uma foto sua de maiô publicada no Instagram para gerar uma versão nua que circulou entre estudantes. A denúncia sustenta que o material configura abuso sexual infantil e pede que o tribunal ordene a exclusão definitiva das imagens e o bloqueio do site no território norte-americano.

Segundo o The Wall Street Journal, o bot do ClothOff operava no Telegram, aplicativo que já removeu a funcionalidade. A plataforma de mensagens declarou que pornografia não consensual e ferramentas para produzi-la violam seus termos de serviço e são retiradas assim que identificadas.

A AI/Robotics Venture, registrada nas Ilhas Virgens e operada a partir da Bielorrússia, alegou em nota que o uso de imagens de menores “é tecnicamente impossível” e que incentiva práticas éticas de IA. A defesa da adolescente contesta a afirmação, apontando múltiplas vítimas com rostos reconhecíveis.

Paralelamente, o procurador da cidade de São Francisco, David Chiu, moveu ação em 2024 contra 16 sites de deepfake sexual, incluindo o ClothOff. “Não vamos parar até que todos os proprietários sejam responsabilizados”, disse Chiu ao WSJ.

Em maio de 2025, o Congresso dos EUA aprovou o Take It Down Act, que transforma a divulgação de imagens íntimas sem autorização — reais ou geradas por IA — em crime federal e obriga provedores a remover o conteúdo em até 48 horas. A lei fortalece a base legal do processo da jovem, que relata viver com receio constante de ver suas fotos circularem novamente.

Se confirmada a responsabilidade da empresa, o Tribunal poderá impor indenização, bloqueio da ferramenta e proibição do uso das imagens no treinamento de modelos de IA, estabelecendo precedente para casos semelhantes.

Para saber como a tecnologia impacta a privacidade e quais medidas estão sendo adotadas, leia também nosso conteúdo em Ciência e tecnologia e continue acompanhando nossas atualizações.

Imagem: metamorworks/Shutterstock

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Postagens Relacionadas

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK