OpenAI promete reforçar proteção contra deepfakes no Sora 2 após reclamação de Bryan Cranston

O debate sobre a segurança da imagem dos artistas ganhou novo capítulo nesta semana, quando a OpenAI comunicou que desenvolverá medidas específicas para dificultar a criação de deepfakes no Sora 2. O compromisso surgiu depois de vídeos gerados com a voz e a aparência do ator Bryan Cranston, sem permissão, circularem pelo aplicativo.
- Como a preocupação chegou ao público
- Resposta oficial da OpenAI
- Sora 2: do lançamento às polêmicas
- Incidentes anteriores intensificaram o debate
- Participação de sindicatos e agências
- O que muda a partir da nova promessa
- Impacto para o ecossistema de IA generativa
- Próximos passos aguardados por usuários e artistas
- Uma pauta que deve se estender
Como a preocupação chegou ao público
Bryan Cranston, conhecido pelo papel de Walter White em Breaking Bad, identificou a presença de conteúdos falsos que reproduziam sua figura. Após constatar o problema, o ator recorreu ao Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA), sindicato que representa a categoria, para relatar o uso não autorizado de sua imagem e voz.
A manifestação de Cranston foi revelada pela CNBC e expôs um ponto sensível da geração de vídeo por inteligência artificial: a facilidade de replicar pessoas reais sem autorização. A partir da denúncia, a discussão extrapolou as redes sociais e alcançou executivos de estúdios, agências de talentos e especialistas em ética digital.
Resposta oficial da OpenAI
Diante da repercussão, a OpenAI divulgou uma nota conjunta com o SAG-AFTRA e com Bryan Cranston. No documento, a empresa afirma que trabalhará para “combater deepfakes dentro do Sora”. O texto também informa que, além do sindicato, o esforço contará com apoio da United Talent Agency (representante do ator), da Association of Talent Agents e da Creative Artists Agency.
A declaração não detalha quais tecnologias ou procedimentos serão aplicados, mas estabelece o compromisso de fortalecimento das barreiras de proteção. Cranston, por sua vez, agradeceu publicamente a inclusão de salvaguardas e reforçou o direito de cada profissional controlar o uso de sua própria imagem e voz, tanto na esfera pessoal quanto profissional.
Sora 2: do lançamento às polêmicas
Anunciado no final de setembro, o Sora 2 chamou atenção por permitir que usuários descrevam cenas em texto e recebam vídeos gerados de forma automatizada. Contudo, poucos dias após a estreia, começaram a surgir críticas sobre a ausência de um mecanismo robusto para impedir o uso de material protegido por direitos autorais ou de figuras públicas sem consentimento.
Na ocasião do lançamento, a OpenAI implementou um sistema de opt-out, isto é, todo conteúdo protegido poderia ser utilizado pela inteligência artificial até que o titular pedisse a remoção. A opção desagradou estúdios e agências, que consideraram o modelo muito permissivo. Pressionado, o diretor-executivo Sam Altman prometeu conceder aos detentores de direitos um controle mais granular sobre personagens gerados pela plataforma.
Incidentes anteriores intensificaram o debate
O caso envolvendo Bryan Cranston não foi o primeiro a colocar o Sora 2 sob escrutínio. Na semana anterior ao posicionamento da OpenAI, o aplicativo foi impedido de produzir vídeos que retratavam Martin Luther King Jr., após solicitação formal do espólio do líder dos direitos civis. O conteúdo, considerado desrespeitoso e ofensivo, provocou críticas de especialistas em ética na tecnologia e do público nas redes sociais.
Outro episódio ganhou destaque quando Zelda Williams, filha do ator e comediante Robin Williams, pediu que usuários parassem de enviar material que imitava a imagem do pai. Esses eventos reforçaram a percepção de que, mesmo em fase inicial, o Sora 2 carecia de filtros eficazes para prevenir violações de personalidade ou de direitos autorais.
Participação de sindicatos e agências
A mobilização em torno do tema também envolveu importantes agências de talentos. A Creative Artists Agency (CAA) foi uma das primeiras a externar receio quanto aos riscos que o Sora 2 poderia representar para artistas. Segundo a agência, a plataforma expunha clientes a usos não autorizados potencialmente danosos.
Na mesma linha, a United Talent Agency (UTA) e a WME recomendaram que seus representados aderissem ao opt-out enquanto a OpenAI não oferecesse garantias adicionais. O alinhamento desses agentes do mercado do entretenimento adicionou pressão institucional à desenvolvedora de inteligência artificial.
O que muda a partir da nova promessa
Embora o comunicado publicado pela OpenAI não especifique ferramentas ou prazos, a parceria anunciada sugere que o processo de geração de vídeo deverá sofrer revisões. A menção ao envolvimento de sindicatos e de várias agências indica que o grupo trabalhará na criação de políticas capazes de restringir uploads ou prompts que resultem em deepfakes de pessoas reais sem autorização prévia.
O foco nas palavras “combater deepfakes” pode abranger desde sistemas automáticos de detecção de rostos conhecidos até filtros que rejeitem descrições textuais envolvendo figuras públicas sem consentimento. Segundo o texto divulgado, caberá às entidades parceiras acompanhar a implementação e cobrar transparência sobre a eficácia das barreiras.
Impacto para o ecossistema de IA generativa
A discussão em torno do Sora 2 reflete desafios comuns a diversas plataformas de criação de conteúdo por inteligência artificial. A facilidade para combinar dados e gerar representações realistas trouxe benefícios criativos, mas também ampliou o risco de uso indevido da identidade de terceiros. O posicionamento da OpenAI, portanto, pode servir de referência para outras empresas do setor, que observam com atenção as exigências de Hollywood e de entidades de direitos civis.
Mesmo sem revelar detalhes operacionais, a empresa admitiu que o sistema de opt-out inicial foi insuficiente para lidar com demandas de proteção de imagem. A sinalização de mudanças tende a influenciar futuros lançamentos de modelos generativos e a consolidar práticas de consentimento mais rígidas.
Próximos passos aguardados por usuários e artistas
Até o momento, não há cronograma público para a atualização das políticas do Sora 2. A OpenAI informou apenas que trabalhará lado a lado com os parceiros para “aumentar as proteções contra usos indevidos de IA”. Usuários da plataforma esperam orientações claras sobre novos termos de uso, enquanto artistas e representantes aguardam garantias formais de que a criação de vídeos com pessoas reais dependerá de autorização explícita.
Para muitos profissionais do entretenimento, a iniciativa representa um avanço, mas o resultado será medido pela aplicação concreta das medidas prometidas. Caso as salvaguardas se mostrem eficazes, o Sora 2 poderá reconquistar parte da confiança perdida durante as controvérsias recentes.
Uma pauta que deve se estender
A colaboração anunciada é mais um passo em uma discussão que tende a evoluir com rapidez. A cada incidente envolvendo deepfakes de figuras públicas, cresce a urgência de mecanismos automáticos de bloqueio e de políticas contratuais específicas. Enquanto ferramentas de criação de vídeo se popularizam, o equilíbrio entre inovação e direitos individuais permanece no centro das negociações entre empresas de tecnologia, sindicatos e agências.
Embora ainda não esteja claro como a OpenAI implementará suas novas barreiras, o caso evidencia a capacidade de mobilização de atores, herdeiros e organizações profissionais quando identidades são utilizadas sem permissão. A expectativa recai agora sobre a materialização das promessas em salvaguardas técnicas palpáveis, capazes de impedir que situações semelhantes se repitam no Sora 2 e em outras soluções de inteligência artificial.
Deixe um comentário
Você precisa fazer o login para publicar um comentário.
Postagens Relacionadas