Deepfakes de IA expõem privacidade com apps nudify

Deepfakes de IA expõem privacidade com apps nudify

Deepfakes de IA vêm ganhando força em aplicativos “nudify”, capazes de transformar fotos comuns em material sexual explícito sem consentimento, revelando um novo e inquietante risco à privacidade digital.

O alerta surgiu em Minneapolis, Estados Unidos, quando a consultora de tecnologia Jessica Guistolise soube que imagens de mais de 80 mulheres, retiradas de redes sociais, haviam sido manipuladas em conteúdo pornográfico. O material foi criado no site DeepSwap, que oferece planos de assinatura simples e dispensa qualquer conhecimento técnico.

Índice

Deepfakes de IA expõem privacidade com apps nudify

Screenshots encontrados no computador de um homem identificado como Ben exibiam versões falsas e explícitas de fotografias pessoais, incluindo registros de formatura e férias em família. Embora Ben tenha admitido a criação dos deepfakes, a ausência de distribuição pública dificultou enquadrá-lo em leis existentes, evidenciando brechas regulatórias.

Ataque expõe lacunas legais

Especialistas apontam que legislações estaduais e federais se concentram majoritariamente na divulgação de conteúdo sexual não consensual. Propostas como o Take It Down Act criminalizam a publicação, mas não cobrem a simples produção. Em Minnesota, um projeto de lei tenta fechar essa lacuna, prevendo multa de US$ 500 mil para plataformas que permitam criar deepfakes sexuais sem autorização.

Casos semelhantes foram registrados na Austrália, onde um homem recebeu nove anos de prisão, e no Brasil, onde grupos no Facebook, Telegram e Discord oferecem encomendas de imagens falsificadas. Segundo Haley McNamara, do National Center on Sexual Exploitation, um deepfake realista pode ser gerado “em menos tempo do que se faz um café”.

Mercado de nudify cresce sem controle

Pesquisas da Universidade da Flórida e da Georgetown University indicam que serviços de nudify funcionam com modelos de assinatura típicos de aplicativos populares, criando um mercado lucrativo, ainda que pequeno dentro da IA generativa. Anúncios circulam em redes sociais como Instagram e Facebook, ampliando o alcance dessas ferramentas.

Reportagem da CNBC ressalta que a facilidade de acesso coloca principalmente mulheres em situação de vulnerabilidade, gerando estresse, paranoia e sensação de impotência, mesmo quando o conteúdo não é publicado.

No Brasil, plataformas tentam remover anúncios de apps nudify, mas novos canais surgem rapidamente. “É importante que as pessoas saibam que isso existe, é acessível e precisa parar”, afirmou Guistolise, que continua mobilizando vítimas e legisladores.

Quer saber mais sobre os avanços — e riscos — da Inteligência Artificial? Visite nossa editoria de Inteligência Artificial e acompanhe as atualizações.

Crédito da imagem: Golden Dayz / Shutterstock.com

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Postagens Relacionadas

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK