Deepfakes de IA expõem privacidade com apps nudify

Deepfakes de IA vêm ganhando força em aplicativos “nudify”, capazes de transformar fotos comuns em material sexual explícito sem consentimento, revelando um novo e inquietante risco à privacidade digital.
O alerta surgiu em Minneapolis, Estados Unidos, quando a consultora de tecnologia Jessica Guistolise soube que imagens de mais de 80 mulheres, retiradas de redes sociais, haviam sido manipuladas em conteúdo pornográfico. O material foi criado no site DeepSwap, que oferece planos de assinatura simples e dispensa qualquer conhecimento técnico.
Deepfakes de IA expõem privacidade com apps nudify
Screenshots encontrados no computador de um homem identificado como Ben exibiam versões falsas e explícitas de fotografias pessoais, incluindo registros de formatura e férias em família. Embora Ben tenha admitido a criação dos deepfakes, a ausência de distribuição pública dificultou enquadrá-lo em leis existentes, evidenciando brechas regulatórias.
Ataque expõe lacunas legais
Especialistas apontam que legislações estaduais e federais se concentram majoritariamente na divulgação de conteúdo sexual não consensual. Propostas como o Take It Down Act criminalizam a publicação, mas não cobrem a simples produção. Em Minnesota, um projeto de lei tenta fechar essa lacuna, prevendo multa de US$ 500 mil para plataformas que permitam criar deepfakes sexuais sem autorização.
Casos semelhantes foram registrados na Austrália, onde um homem recebeu nove anos de prisão, e no Brasil, onde grupos no Facebook, Telegram e Discord oferecem encomendas de imagens falsificadas. Segundo Haley McNamara, do National Center on Sexual Exploitation, um deepfake realista pode ser gerado “em menos tempo do que se faz um café”.
Mercado de nudify cresce sem controle
Pesquisas da Universidade da Flórida e da Georgetown University indicam que serviços de nudify funcionam com modelos de assinatura típicos de aplicativos populares, criando um mercado lucrativo, ainda que pequeno dentro da IA generativa. Anúncios circulam em redes sociais como Instagram e Facebook, ampliando o alcance dessas ferramentas.
Reportagem da CNBC ressalta que a facilidade de acesso coloca principalmente mulheres em situação de vulnerabilidade, gerando estresse, paranoia e sensação de impotência, mesmo quando o conteúdo não é publicado.
No Brasil, plataformas tentam remover anúncios de apps nudify, mas novos canais surgem rapidamente. “É importante que as pessoas saibam que isso existe, é acessível e precisa parar”, afirmou Guistolise, que continua mobilizando vítimas e legisladores.
Quer saber mais sobre os avanços — e riscos — da Inteligência Artificial? Visite nossa editoria de Inteligência Artificial e acompanhe as atualizações.
Crédito da imagem: Golden Dayz / Shutterstock.com
Postagens Relacionadas