Apps de IA espalham nudes falsos e alarmam escolas britânicas
Aplicações móveis que recorrem a inteligência artificial para remover digitalmente a roupa de qualquer pessoa estão a ganhar popularidade entre estudantes no Reino Unido. As ferramentas, disponíveis para Android e iOS, permitem gerar imagens nuas ou parcialmente nuas com aparência realista e estão a ser usadas sobretudo por rapazes de 13 a 15 anos para criar deepfakes de colegas e professores.
Ferramentas de nudificação ao alcance de qualquer smartphone
Os chamados “apps de nudificação” funcionam de forma semelhante aos editores que eliminam objectos de fotografias: após carregar a imagem original, o algoritmo substitui a área ocupada pela roupa por pele sintética, produzindo um resultado capaz de enganar quem vê a fotografia pela primeira vez. De acordo com um relatório citado pelo Daily Mail, estas aplicações já circulam em praticamente todas as salas de aula britânicas, abrangendo inclusive escolas primárias e universidades.
As principais vítimas são raparigas adolescentes, que relatam impactos significativos na saúde mental, mas os docentes também têm sido alvo frequente. Há registo de alunos que partilharam milhares de imagens falsas em grupos privados, potenciando humilhação pública e perseguição online.
Um dos casos destacados envolve um estudante que, aos 13 anos, começou a utilizar estas ferramentas e acabou por criar cerca de 1 300 imagens explícitas de uma criança. O tribunal condenou-o a nove meses de reclusão. Num processo semelhante, um jovem de 15 anos recebeu idêntica pena após dois anos a produzir e divulgar deepfakes.
Casos em tribunal e resposta legislativa
O aumento deste tipo de crime reflete-se nas estatísticas judiciais: Inglaterra e País de Gales registaram perto de 1 400 processos ligados a nudes falsos de menores no último ano, um crescimento de quase 50 % face ao período anterior. A lei britânica já pune a criação, posse e distribuição de imagens sexuais de menores, mas o Governo prepara a introdução de um crime específico para fotos ou vídeos sexualmente explícitos gerados por IA, previsto para entrar em vigor ainda este ano.
Especialistas em cibersegurança sublinham que a facilidade de acesso às aplicações, muitas gratuitas ou com versões de teste alargadas, cria um ambiente propício à replicação do fenómeno. A ausência de barreiras técnicas significa que basta um smartphone para produzir conteúdos potencialmente criminosos.
Impacto internacional e projectos semelhantes
O problema não se limita ao território britânico. No Brasil, relatos de deepfakes sexuais em contexto escolar motivaram a apresentação de um projecto de lei que pretende incluir a prática no Código Penal. A proposta prevê penas de dois a seis anos de prisão, agravadas em um terço se a vítima for criança, adolescente, mulher, pessoa idosa ou com deficiência.
Organizações de defesa dos direitos digitais alertam que a proliferação destas ferramentas coloca desafios inéditos às autoridades, sobretudo na remoção de conteúdos já partilhados. Plataformas de redes sociais têm vindo a reforçar mecanismos de detecção automatizada, mas reconhecem dificuldades em acompanhar a velocidade de disseminação.
Riscos para a saúde mental e pedidos de intervenção
Profissionais de saúde mental relatam casos de ansiedade, depressão e isolamento social em vítimas de nudes falsos. Em situações extremas, houve suicídios associados à divulgação massiva das imagens. Escolas, pais e responsáveis pedem campanhas de sensibilização e programas educativos que abordem consentimento digital e uso ético da inteligência artificial.
Enquanto se aguarda a nova legislação britânica, entidades de protecção infantil recomendam reforço da vigilância nas lojas de aplicações e a inclusão de filtros de idade mais rigorosos. A eficácia destas medidas, contudo, dependerá da cooperação entre desenvolvedores, operadores de sistemas operativos e autoridades judiciais.

Imagem: tecmundo.com.br