Will Smith comendo espaguete: vídeo-teste vira termômetro da inteligência artificial e revela salto em apenas três anos

|
Getting your Trinity Audio player ready... |
Will Smith comendo espaguete deixou de ser apenas um meme curioso da internet para se converter em um estudo de caso sobre a velocidade com que a inteligência artificial (IA) consegue aprimorar a geração de imagens em movimento.
- Do meme ao marco tecnológico: como nasceu “Will Smith comendo espaguete”
- Evolução visual de “Will Smith comendo espaguete” comprova salto em três anos
- Kling 3.0 eleva o teste “Will Smith comendo espaguete” a padrão quase cinematográfico
- Direitos autorais colocam futuro de “Will Smith comendo espaguete” em xeque
- Restrições em Sora, Veo e outros reforçam limites à geração de rostos famosos
- Por que “Will Smith comendo espaguete” se tornou laboratório de referência
- Quais elementos ainda denunciam a criação por IA
- Próximos passos: do espaguete para onde?
Do meme ao marco tecnológico: como nasceu “Will Smith comendo espaguete”
O ponto de partida deste fenômeno remonta a 2023, quando um usuário do subreddit r/OpenAI publicou um clipe experimental que exibia o ator Will Smith sentado à mesa e se alimentando de espaguete. O material era animado por um gerador de vídeo conhecido como ModelScope. Naquele momento, a ferramenta ainda lutava para manter a consistência facial do ator entre um quadro e outro, resultando em traços grotescos, artefatos visuais e movimentos truncados. A estética pouco natural não impediu, porém, que o conteúdo viralizasse; pelo contrário, o caráter imperfeito foi decisivo para transformá-lo em meme.
A partir desse primeiro registro, internautas passaram a replicar o teste, criando variações igualmente desajeitadas, porém divertidas. A popularidade atingiu tal nível que o próprio Will Smith, segundo o histórico registrado no Reddit, chegou a brincar com a obra ao publicar uma alusão ao vídeo em seu perfil no TikTok.
Evolução visual de “Will Smith comendo espaguete” comprova salto em três anos
A recente postagem no mesmo fórum reuniu versões do experimento produzidas ao longo de três anos, permitindo uma comparação direta entre o estágio inicial e o cenário atual da tecnologia. As primeiras amostras, ainda baseadas em ModelScope, mantêm os rostos disformes e o aspecto pixelizado. Já os materiais mais novos apresentam profundidade de campo, iluminação realista e coerência anatômica, apesar de pequenos sinais de artificialidade ainda perceptíveis nos olhos e na textura da pele.
Esse contraste em período tão curto evidencia a curva de aprendizado dos modelos generativos. Na prática, os algoritmos foram alimentados com volumes cada vez maiores de dados visuais, aprendendo a reproduzir detalhes sutis, como a elasticidade do espaguete ao ser enrolado no garfo ou a variação mínima dos músculos faciais durante a mastigação e o diálogo.
Kling 3.0 eleva o teste “Will Smith comendo espaguete” a padrão quase cinematográfico
A versão mais recente foi produzida com o Kling 3.0, gerador de vídeos desenvolvido pela empresa chinesa Kuaishou Technology. Diferentemente do ModelScope, o Kling 3.0 emprega redes neurais otimizadas com foco em resolução 4K e taxa de quadros mais estável. Dessa forma, o resultado assume valores de produção próximos aos de um set profissional.
No vídeo, Will Smith aparece conversando com um homem mais jovem sentado à mesma mesa. Ambos comentam as capacidades do próprio software responsável por criar a cena, deixando claro que o conteúdo tem caráter demonstrativo. Mesmo assim, a naturalidade dos gestos, o balanceamento de cor e a profundidade de campo alcançada chamam atenção de quem analisa a evolução do recurso. É a primeira vez que o “teste do espaguete” alcança qualidade suficientemente alta para ser confundido, à primeira vista, com uma filmagem tradicional.
Direitos autorais colocam futuro de “Will Smith comendo espaguete” em xeque
Paralelamente ao salto qualitativo, o experimento encara obstáculos jurídicos cada vez mais duros. Estúdios de Hollywood e associações de categoria intensificaram a pressão contra o uso de imagens de atores reais em bancos de dados de IA, sobretudo quando a compilação de material envolve propriedades intelectuais protegidas. Como resultado, grandes desenvolvedoras ocidentais passaram a adotar políticas mais conservadoras para impedir a geração de vídeos que reproduzam rostos de celebridades conhecidas.
O impacto aparece na prática. O portal Mashable tentou reproduzir o teste usando o Sora, da OpenAI, e o Veo 3.1, do Google Gemini, mas ambos negaram o pedido citando violações de direitos autorais. Iniciativas semelhantes esbarraram em barreiras equivalentes em sistemas como Grok ou em plataformas que impõem filtros avançados de detecção de material sensível.
Restrições em Sora, Veo e outros reforçam limites à geração de rostos famosos
À medida que essas salvaguardas se ampliam, executivos de tecnologia sinalizam um movimento de autorregulação para evitar litígios onerosos com a indústria do entretenimento. A tendência é que futuros modelos baseados nos Estados Unidos endureçam ainda mais as normas que proíbem a reprodução não autorizada de identidades públicas. Caso o cenário se confirme, o emblemático “Will Smith comendo espaguete” pode perder seu valor como experimento replicável em ferramentas populares, permanecendo restrito a engines com políticas mais brandas ou a ambientes de pesquisa fechados.
Por que “Will Smith comendo espaguete” se tornou laboratório de referência
O teste reúne algumas qualidades que o transformaram em padrão-ouro para medir avanços: contém movimento facial, interação com objeto (o espaguete), mudança de planos e presença de figura pública reconhecível. Cada um desses aspectos exige que a IA domine texturas, profundidade, sincronização labial e consistência entre quadros. A superação das falhas iniciais nesses pontos serve como indicador objetivo do progresso na geração de vídeo sintético.
Quais elementos ainda denunciam a criação por IA
Mesmo o produto gerado com Kling 3.0 não está isento de imperfeições. Olhares fixos demais, transições levemente abruptas e a ausência de microexpressões imprevisíveis ainda revelam o DNA sintético. Esses traços, embora sutis, mantêm a fronteira entre o real e o artificial. Para pesquisadores, o desafio agora reside em aperfeiçoar o comportamento probabilístico dos modelos a fim de reproduzir o caráter espontâneo da ação humana.
Próximos passos: do espaguete para onde?
Sem datas confirmadas para novas demonstrações oficiais, a última informação factual relevante indica que o clipe produzido com Kling 3.0 permanece como a versão de maior fidelidade disponível publicamente. Enquanto isso, entusiastas acompanham as possíveis atualizações de OpenAI, Google e Kuaishou, aguardando o momento em que as restrições legais e as capacidades técnicas voltem a se alinhar para permitir novos testes de referência.

Conteúdo Relacionado