OpenAI promete reforçar proteção contra deepfakes no Sora 2 após reclamação de Bryan Cranston

OpenAI promete reforçar proteção contra deepfakes no Sora 2 após reclamação de Bryan Cranston

O debate sobre a segurança da imagem dos artistas ganhou novo capítulo nesta semana, quando a OpenAI comunicou que desenvolverá medidas específicas para dificultar a criação de deepfakes no Sora 2. O compromisso surgiu depois de vídeos gerados com a voz e a aparência do ator Bryan Cranston, sem permissão, circularem pelo aplicativo.

Índice

Como a preocupação chegou ao público

Bryan Cranston, conhecido pelo papel de Walter White em Breaking Bad, identificou a presença de conteúdos falsos que reproduziam sua figura. Após constatar o problema, o ator recorreu ao Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA), sindicato que representa a categoria, para relatar o uso não autorizado de sua imagem e voz.

A manifestação de Cranston foi revelada pela CNBC e expôs um ponto sensível da geração de vídeo por inteligência artificial: a facilidade de replicar pessoas reais sem autorização. A partir da denúncia, a discussão extrapolou as redes sociais e alcançou executivos de estúdios, agências de talentos e especialistas em ética digital.

Resposta oficial da OpenAI

Diante da repercussão, a OpenAI divulgou uma nota conjunta com o SAG-AFTRA e com Bryan Cranston. No documento, a empresa afirma que trabalhará para “combater deepfakes dentro do Sora”. O texto também informa que, além do sindicato, o esforço contará com apoio da United Talent Agency (representante do ator), da Association of Talent Agents e da Creative Artists Agency.

A declaração não detalha quais tecnologias ou procedimentos serão aplicados, mas estabelece o compromisso de fortalecimento das barreiras de proteção. Cranston, por sua vez, agradeceu publicamente a inclusão de salvaguardas e reforçou o direito de cada profissional controlar o uso de sua própria imagem e voz, tanto na esfera pessoal quanto profissional.

Sora 2: do lançamento às polêmicas

Anunciado no final de setembro, o Sora 2 chamou atenção por permitir que usuários descrevam cenas em texto e recebam vídeos gerados de forma automatizada. Contudo, poucos dias após a estreia, começaram a surgir críticas sobre a ausência de um mecanismo robusto para impedir o uso de material protegido por direitos autorais ou de figuras públicas sem consentimento.

Na ocasião do lançamento, a OpenAI implementou um sistema de opt-out, isto é, todo conteúdo protegido poderia ser utilizado pela inteligência artificial até que o titular pedisse a remoção. A opção desagradou estúdios e agências, que consideraram o modelo muito permissivo. Pressionado, o diretor-executivo Sam Altman prometeu conceder aos detentores de direitos um controle mais granular sobre personagens gerados pela plataforma.

Incidentes anteriores intensificaram o debate

O caso envolvendo Bryan Cranston não foi o primeiro a colocar o Sora 2 sob escrutínio. Na semana anterior ao posicionamento da OpenAI, o aplicativo foi impedido de produzir vídeos que retratavam Martin Luther King Jr., após solicitação formal do espólio do líder dos direitos civis. O conteúdo, considerado desrespeitoso e ofensivo, provocou críticas de especialistas em ética na tecnologia e do público nas redes sociais.

Outro episódio ganhou destaque quando Zelda Williams, filha do ator e comediante Robin Williams, pediu que usuários parassem de enviar material que imitava a imagem do pai. Esses eventos reforçaram a percepção de que, mesmo em fase inicial, o Sora 2 carecia de filtros eficazes para prevenir violações de personalidade ou de direitos autorais.

Participação de sindicatos e agências

A mobilização em torno do tema também envolveu importantes agências de talentos. A Creative Artists Agency (CAA) foi uma das primeiras a externar receio quanto aos riscos que o Sora 2 poderia representar para artistas. Segundo a agência, a plataforma expunha clientes a usos não autorizados potencialmente danosos.

Na mesma linha, a United Talent Agency (UTA) e a WME recomendaram que seus representados aderissem ao opt-out enquanto a OpenAI não oferecesse garantias adicionais. O alinhamento desses agentes do mercado do entretenimento adicionou pressão institucional à desenvolvedora de inteligência artificial.

O que muda a partir da nova promessa

Embora o comunicado publicado pela OpenAI não especifique ferramentas ou prazos, a parceria anunciada sugere que o processo de geração de vídeo deverá sofrer revisões. A menção ao envolvimento de sindicatos e de várias agências indica que o grupo trabalhará na criação de políticas capazes de restringir uploads ou prompts que resultem em deepfakes de pessoas reais sem autorização prévia.

O foco nas palavras “combater deepfakes” pode abranger desde sistemas automáticos de detecção de rostos conhecidos até filtros que rejeitem descrições textuais envolvendo figuras públicas sem consentimento. Segundo o texto divulgado, caberá às entidades parceiras acompanhar a implementação e cobrar transparência sobre a eficácia das barreiras.

Impacto para o ecossistema de IA generativa

A discussão em torno do Sora 2 reflete desafios comuns a diversas plataformas de criação de conteúdo por inteligência artificial. A facilidade para combinar dados e gerar representações realistas trouxe benefícios criativos, mas também ampliou o risco de uso indevido da identidade de terceiros. O posicionamento da OpenAI, portanto, pode servir de referência para outras empresas do setor, que observam com atenção as exigências de Hollywood e de entidades de direitos civis.

Mesmo sem revelar detalhes operacionais, a empresa admitiu que o sistema de opt-out inicial foi insuficiente para lidar com demandas de proteção de imagem. A sinalização de mudanças tende a influenciar futuros lançamentos de modelos generativos e a consolidar práticas de consentimento mais rígidas.

Próximos passos aguardados por usuários e artistas

Até o momento, não há cronograma público para a atualização das políticas do Sora 2. A OpenAI informou apenas que trabalhará lado a lado com os parceiros para “aumentar as proteções contra usos indevidos de IA”. Usuários da plataforma esperam orientações claras sobre novos termos de uso, enquanto artistas e representantes aguardam garantias formais de que a criação de vídeos com pessoas reais dependerá de autorização explícita.

Para muitos profissionais do entretenimento, a iniciativa representa um avanço, mas o resultado será medido pela aplicação concreta das medidas prometidas. Caso as salvaguardas se mostrem eficazes, o Sora 2 poderá reconquistar parte da confiança perdida durante as controvérsias recentes.

Uma pauta que deve se estender

A colaboração anunciada é mais um passo em uma discussão que tende a evoluir com rapidez. A cada incidente envolvendo deepfakes de figuras públicas, cresce a urgência de mecanismos automáticos de bloqueio e de políticas contratuais específicas. Enquanto ferramentas de criação de vídeo se popularizam, o equilíbrio entre inovação e direitos individuais permanece no centro das negociações entre empresas de tecnologia, sindicatos e agências.

Embora ainda não esteja claro como a OpenAI implementará suas novas barreiras, o caso evidencia a capacidade de mobilização de atores, herdeiros e organizações profissionais quando identidades são utilizadas sem permissão. A expectativa recai agora sobre a materialização das promessas em salvaguardas técnicas palpáveis, capazes de impedir que situações semelhantes se repitam no Sora 2 e em outras soluções de inteligência artificial.

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Postagens Relacionadas

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK